Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties
Bron: AnandTech

Bij AnandTech is een korte vergelijking verschenen tussen de GeForce Go 7800 GTX en zijn grote broer, de GeForce 7800 GTX. Qua specificaties zijn er weinig verschillen tussen beide kaarten, de mobiele variant heeft dezelfde features en evenveel pipelines als zijn grote broer. Het grote verschil is de kloksnelheid, bij de GeForce Go 7800 GTX zijn zowel de core als het geheugen circa tien procent lager geklokt. Uit de benchmarks blijkt dat dit verschil in kloksnelheid, niet geheel verrassend, ongeveer eenzelfde procentuele verschil in prestaties veroorzaakt. Hiermee is een notebook met GeForce Go 7800 GTX-kaart prima in staat om de meeste nieuwe games te draaien op 1920x1200 met anti-aliasing, een prima prestatie. Op het moment heeft ATi nog geen mobiele videokaart die deze prestatie kan evenaren en AnandTech vraagt zich af of hier in de nabije toekomst verandering in zal komen. De hoge kloksnelheid van de Radeon X1800 XT zorgt voor een hoog energieverbruik, iets dat moeilijk te combineren is met een notebook. Voor de ultieme mobiele gameprestaties zal men dus momenteel bij nVidia moeten aankloppen.

Battlefield 2 benchmark GeForce Go 7800 GTX
Moderatie-faq Wijzig weergave

Reacties (82)

De hoge kloksnelheid van de Radeon X1800 XT zorgt voor een hoog energieverbruik, iets dat moeilijk te combineren is met een notebook.

Als je gaat gamen op je laptop, ook met de Nvidia, zul je snel door je accu zijn. Dan sluit je de laptop meestal toch op je adapter aan. Dus ik vind dat argument met van " ATi klokt sneller dus verbuikt meer dus neem Nvidia" geheel niet terecht.
Je hebt 100% gelijk. Maar ik denk dat vooral de warmteafvoer bij de nieuwe Ati-kaarten een probleem zal zijn.
Volgens mij zit je er warmpjes bij als je een laptop met een Mobiele 7800 GTX videokaart hebt.
(Letterlijk en figuurlijk. ;) )
Dat verschilt per merk. Laptop's met vergelijkbare prestaties van verschillende merken voelen soms heel anders aan. De fan heel langzaam continu laten draaien houdt de laptop erg koel (Dell D810) terwijl ik een acer en een Packerd Bell ernaast had die uit gingen, heet werden en dan opeens loeihard gingen blazen en dan weer uit gingen :? Dat is erg irritant en je laptop schommelt steeds in temp. En heet is dan erg heet ;)
nee hoor, gewoon wat extra fannetjes die alleen aangaan als je de videokaart /laptop intensief gebruikt
Heatpipe doet ook al wonderen met een gecombineerde grotere en krachtigere fan voor zowel GPU als CPU. Komt steeds vaker voor, een aantal fabrikanten schakelt inmiddels over op vloeistofkoeling binnen niet afzienbare tijd.
Mwha, het zal altijd gloeiend heet worden, ofje de lucht redelijk weet af te voeren of niet, een warm onderdeel van je laptop zal dat gewoon altijd deels afgeven aan de rest van de laptop (en jouw benen als je hem op schoot heb AUW:P)

Mannen oppassen dus voor de kwaliteit van uw nageslacht, tijdens het gamen NIT de laptop op schoot :)
Wat je zegt is niet juist.
De X1800XT verbruikt zo'n 25W meer maar je mag niet vergeten dat die kaart 512MB geheugen heeft.
Die extra 256MB 750Mhz geheugen zal zo'n 25W verbruiken. Dus zelfs met die hoge klok verbruikt de X1800XT core evenveel als de 7800GTX.
Wat jij zegt is niet juist, die extra 256MB zijn geen extra chips, hebben niet een grotere busbreedte, dus zullen nouwelijks extra stroom gaan gebruiken, en jij weet heus zelf ook wel dat 2 chips gebakken 90nm waarvan de een 300 en de ander 320 miljoen transistors heeft, die laatste meer stroom zal verbruiken, vooral als wordt rekening gehouden met de uber-hoge clock die die laatste bij zich draagd (en ja die clock kan wel naar beneden, maar dan houd ie de 7800 niet meer bij).
-Waarom zouden die 256MB geen extra chips zijn?
Die 256mb maakt wel degelijk uit qua vermogen.
Verklaar dit verschil eens anders?:
http://www.xbitlabs.com/i...adeon-x1000/power_x18.gif
-De 7800GTX mobile is niet op 90nm gebakken, de X1800 wel inderdaad
-Alsof het aantal pipelines ondergeschikt is aan de clocksnelheid van de chip in termen van energieconsumptie? Ik denk het niet ;)
En al helemaal niks zeggend is het aantal transistors (nvidia en ati tellen allebei anders en hoeveel van die chips zijn er nodig tijdens het gamen?)
-Men verwacht dat de mobile versie van de X1800 chips gebaseerd zal zijn op de R580 core.

Overigens zal ik het waarschijnlijk eens zijn met jouw stelling dat ATi meer vermogen gebruikt op het moment dan Nvidia, maar je oordeelt op de verkeerde argumenten!
[quote]Het aantal chips neemt niet toe, omdat het aantal chips gewoon niet toe neemt.........waarom zouden ze ook, dan zouden de chips een smallere bus moeten gebruiken.[quote]

Dus volgens jou hebben videokaarten altijd maar 1 RAM chip aan boord? Persoonlijk heb ik geloof ik nog nooit een moderne videokaart gezien met maar 1 RAM chip (niet dat ik zoveel kaarten heb gezien...maar OK).
De breedte van de bus naar 1 chip of het aantal chips hoeft nog niets te zeggen over de totale busbreedte van het geheugen:
Je kan bijvoorbeeld bij een 16-bits bus met 2 chips de 8 lage bits opslaan in chip1, 8 hoge bits in chip 2 -> totale busbreedte 16-bit.
Of (volgens mij gebruikelijker) je slaat bij een totale geheugen capaciteit van X MB de hoogste X/2 MB op in chip1 (met 16-bits databus) en de laagstre X/2 MB in chip2 (met 16-bits databus). De adres bus van beide chips kan dan 1 bit kleiner dan wanneer je 1 chip van X MB gebruikt (natuurlijk die ene bit gebruik je dan om tussen beide chips te "schakelen").
Het aantal transistors is iets anders als het aantal GFLOPS ofzo, in princiepe hoort het een vast getal te zijn, en er hoort maar een manier van tellen te zijn (1, 2, 3, 4, 5), daarbij komt nog dat ATi in het verleden altijd erg conservatief oer het aantal transistors blijkt (zitten er vaker onder dan boven) in tegen stelling tot nVidia, dus het verschil kan alleen maar groter worden.

En dan nog iets
nieuws: nVidia komt met mobiele versie van GeForce 7800 GTX
B-)

Het aantal chips neemt niet toe, omdat het aantal chips gewoon niet toe neemt.........waarom zouden ze ook, dan zouden de chips een smallere bus moeten gebruiken.

Dat verschil zit hem misschien in het feit dat het ram op 1,5GHz loopt, of de core die op 600ennogwat MHz loopt? Feit blijft, en dat heeft intel ons wel erg goed voorgedaan, hogere clocksnelheden = oneveredig veel stroom verbruik.
Toch zal een nVidia GeForce Go 7800GTX waarschijnlijk wel langer meegaan alleen is het inderdaad niet acceptabel. Maar omdat hij meer pipelines heeft zal hij bij een underclock wel betere prestaties dan ATI underclocked en langere misgien acceptabele levensduur van de accu. Dan kun je toch nog steeds mooi gamen en toch mobiel. Verder omdat de ATI zo hoog is geclocked heeft deze voor notebooks zelfs wel een hitteprobleem.
Nou, als je met die nVidia plank een uur kunt gamen en met die ATI plank drie kwartier, dan ken ik wel een treinreisje dat je precies niet haalt. Tuurlijk game je veelal aan het infuus, maar het moet ook zonder kunnen ander spreek je van een portabe desktop. Stroomverbruik (en testicle-scorch-factor) zijn voor een laptop wel degelijk issues: daarom is het een laptop ipv een desktop!
Als je mobiel gamed heb je normaal een notebooktas waarin je hem vervoert.

Ofwel als je ergens rustig gaat zitten is er vaak wel een stopcontactje te vinden.

Ik vind het ideaal, je kan overal heen met je pc, en overal gamen.
zeer nette scores voor een mobile,
tegenwoordig is er aardig te gamen op laptops.
ik vraag me alleen af hoe lang een laptop doet met een vga zoals deze (accutijd).
Dat moet inderdaad niet zo lang zijn.

Maar volgens mij koop je zo'n laptop dan niet om mobiel (op accu) te gamen.
Een voordeel van een laptop is niet enkel dat je zonder stekker je laptop kan gebruiken, maar dat deze gewoon mobiel is, in de zin van je bestanden en instellingen altijd bij je hebben.
Zit anders vaak genoeg in de trein te gamen, denk aan fahrenheit en AoE III, heb een X700 in me laptop, werkt dus prima! Game nu alleen nog maar op me laptop omdat ie me desktop dik inhaalt (2400+, GF4TI)...
Het echte gamen doe je dan toch thuis, werkplaats, hotel of bij een vriend via LAN/WiFi.

Dan is er meestal ook wel een powerplug te vinden.

En een laptop is dan een stuk handiger om mee te slepen dan een tower.
Als je gaat gamen op 1600x1200 of 1900x1200 heb je ófwel een monitor aan je notebook gehangen (dus dan moet stroom ook geen probleem zijn) óf je hebt een laptop met een groot scherm - en dat zijn meestal de desktop replacements, die niet echt bedoeld zijn om lang zonder stroom te werken.

Als je een handzame subnote hebt die lang zonder snoer gebruikt wordt, zal die meestal een scherm hebben dat niet veel groter is dan 12" of 14" en daar een resolutie van 1024x768 of misschien nog net 1280x1024 op draaien. En die subnotes kunnen dat dus prima af met een "simpelere" VGA kaart als je daar op zou willen gamen. Maar meestal zit daar een geïntegreerde graphics chipset in, waar je sowieso niet mee kunt gamen.

Het hele verhaal is dus in feite alleen relevant voor "grote" desktop replacement notebooks, dat zijn zo'n beetje de enige met dit soort chips, en daar is energieverbruik dus minder belangrijk voor ;) Ze worden meestal relatief stationair gebruikt en vrij weinig rondgesleept.
Hij verbruikt niet meer dan zijn tegenhanger in de 6800 reeks...
In het vorige nieuws item over de GO 7800 GTX (mobile dus) stond dit:
De kloksnelheid wordt verder omlaag geschroefd als de gpu weinig te doen heeft: waarden tot 16MHz zijn mogelijk, terwijl bepaalde gedeeltes van de chip zelfs helemaal uitgeschakeld kunnen worden. Ook kan de chip op rustige momenten toe met een lager voltage en vijftien van de zestien PCIe-lanes kunnen worden afgekoppeld. Daardoor kan de Go7800 GTX toe met 'niet méér' energie dan voorganger Go 6800, en zou de warmteafgifte zelfs aanzienlijk lager uitvallen.
De gpu gebruikt dus alleen de hoeveel energie die hij/zij(de kaart) of jij(de gebruiker) denk nodig te hebben. Ik verwacht dat er software bij zal zitten waar je van die mooie profielen in kan stellen zoals "economic" of "power" waarmee je het energie verbruik kan regelen.

Om maar in cpu termen te gaan praten: nVidia is flink bezig de "performance per watt" op te krikken...
\[off-topic] nVidia VS ATI wordt nu steeds meer Intel VS AMD :7 \[/off-topic]
Gewoon combineren met centrino platformpje. Het mooie is dat de laptop makkelijk 4 uur mee als je niet gamed en als je wilt gamen niet maar dan hang je m aan netspanning
Intel en gamen gaat niet echt samen, zeker in de cpu limited games van tegenwordig.
zoiets van dit:

YES! level 10 gehaald, nu even save.... WTF! accu leeg! NEEEEE. :P
Een eerlijk vergelijking? De laptop heeft een pentium 670, 2GB RAM en de desktop een AMD Athlon 64 FX-55+1GB RAM. Verschil is wel groot hoor tussen de beide systemen.
ik denk dat die amd fx-55 die pentium er in meeste games dik uittrekt met een procentje of 5-10.
Daarom heeft die desktop natuurlijk minder intern geheugen! Toch nog een beetje gelijk trekken!

Ze zullen wel bedoelen: gelijk naar verhouding: Best presterende mobiele CPU vs Best presterende "vaste" CPU etc.!
Mwha, de processor heeft een beduidend minder grotere invloed op het geheel dan geheugen of videokaart, voornamelijk dat laatste natuurlijk. Nogsteeds geen eerlijk vergelijk dus, maar de vraag is hoe extreem het verschil is tussen een zeer oude en zeer nieuwe CPU waar de videokaart hetzelfde is (nu met PCI-E wat problematisch uit te voeren, ja I know..)

Geloof dat het al eens gedaan is door een PC blad en nauwelijks bleek te schelen.. paar procent ofzo maar niet meer iig.
Dit is geweldig nieuws voor iemand die veel naar LAN party's gaat.
Geen gesleep meer met kasten en schermen enzo.
Gewoon ff je laptoppie neer zetten en gamen maar. ;)
volgens mij is dat gesleep met kasten en schermen juist de charme van naar lan party's gaan zoveel mogelijk zo groot mogelijke zooi meezeulen...

22" CRT geen probleem :) bigtower okee dan..

maar een gamelaptop is ook wel handig IDD maar ik vind zeulen met logge bakken (veel plaatstaal in een kast is koel) ook wel wat hebben.. :) geeft iig leukere verhalen achteraf...

"moest ik me 22" helemaal naar boven zeulen" klinkt veel sexyer dan "ik klap mijn laptop open en hop ik was er klaar voor"..

maar smaken verschillen...
ik heb geen auto, wat wil je doen dan?
Vervoer regelen :), er zijn altijd wel mensen bereid een eindje voor je te rijden, zeker als iemand uit de zelfde richting komt :). Althans zo probeer ik het te regelen voor een (kleine) lan-party die ik nu organiseer, rond de 25 man. Paar mensen uit de omgeving hebben geen vervoer dus regel ik dat voor ze, zelf ook geen auto maar wel ene moeder met auto... :P En zo wel anderen die een auto hebben en ff wat mensen oppikken.

Tot nu toe hier braaf geweest, dus maar ff reclame maken (A): iedereen met interesse in een LAN-party in Enkhuizen (Noord-Holland) kan even naar www.bakkie-lan.nl gaan (als die nog niet werkt: http://cobis.dyndns.biz/bakkie-lan).

*benieuwd of ik vergeven word :P*
Vrienden van mij zitten gerust in de trein met 22" CRT's en Big Towers, Dat worden pas verhalen ;)
Ik ga voornamelijk om te leechen naar een LAN party.
Met een laptop zit je al gauw vast tot ong 100/120 GB. Of je moet met een bult externe disken werken.
wel erg jammer dat al die game-laptops zo duur zijn :'(
maar dat zal de echte diehards toch wel niet tegenhouden ;)
ik merk steeds vaker dat eigenlijk de hardware niet zo verkeerd is van mn laptoppie maar de upgrade mogelijkheden erg beperkt zijn. ik zit nog met een 5650 to go te werken. ik zou maar wat graag naar dit willen upgraden maar helaas.. niet mogelijk. verder voldoet mn laptoppie nog wel aan de eisen die ik heb. ik zou dan ook liever zien dat hier wat meer aan gewerkt werd.
nVidia werkt al langer daaraan, dat MXM van ze, maarja, als OEMS het links laten liggen, gebeurt er niets.
Tja, de OEMs hebben hier totaal geen behoefte aan. Die hebben liever dat jij een nieuwe laptop koopt ipv een nieuwe MXM videokaart.

OEMs gebruiken MXM wel om nieuwe modellen makkelijk in hun productielijn op te nemen. (Vandaar bv dat ATI al lang daarvoor met pincompatible gpu's was gekomen)

Als Nvidia MXM echt voor de consument nuttig wil laten zijn, dan moeten ze er voor zorgen dat losse MXM kaarten in de retail terecht komen.

Voorwaarde daarvoor moet natuurlijk wel zijn dat een nieuwe MXM kaart geen problemen gaat opleveren in een bestaande laptop. Daarvoor zouden ze dan bv eisen kunnen stellen aan de warmte die een MXM kaart mag opleveren etc.

Maar volgens mij is dat op dit moment niet in de specs opgenomen, dus loop je als consument een risico als je zomaar een kaart gaat vervangen.
de echte diehards gamen niet op een laptop
jawel want dan kan je ultramobiel van lan party naar lan party racen en zo'n videokaart houd je daar niet in tegen :P
De mobile variant van de X1000 generatie is al lang uitgetaped als ik me niet vergis (weet zeker dat het dat stadium al voorbij is maar hoever weet ik niet zeker), en die zal de mobile GTX het heel lastig gaan maken.
Het voordeel van die X1000 generatie is vernieuwde technologien die meer mogelijk maken dan de nVidia concurrent, bijvoorbeeld met SM3.0
Um, nVidia ondersteunt SM3.0 reeds sinds de GeForce 6-series :? You must have been living in a cave :)
Waarschijnlijk heb ik het niet goed gezegd.
Dan maar duidelijker: de SM3.0 implementatie van de X1000 serie is een stuk beter dan zijn concurrenten maar ook makkelijker te gebruiken door de ontwikkelaars waardoor snellere en efficientere SM3.0 effecten gemaakt kunnen worden.
Dat soort verbeteringen.
Er zijn geen benchmarks waaruit blijkt dat ATi's SM3 inderdaad veeeeeeeeeeel beter is dan die van nvidia.
Ahem....
Kijk hier even: http://www.techreport.com...adeon-x1000/index.x?pg=14

En dan specifiek het grafiekje dat Shadow Mapping met en zonder Flow Control aangeeft.

Dat is het namelijk het grote verschil tussen de SM3 implementatie van ATI en Nvidia.
SM3 wordt pas echt interessant als je dynamic branching gaat doen. (Dan wordt het ook voor developers veel plezieriger dan SM2 om te programmeren) Maar dynamic branching kost veel performance waardoor de voordelen weer teniet worden gedaan.

Zoals je ten tijde van de X800 al van ATI hebt kunnen horen, was dat ook de reden voor ATI om nog niet aan een SM3 implementatie te beginnen. Nvidia heeft het wel volledig geimplementeerd, maar bynamic brancing is bij hun (te) traag.

In de R520 is dynamic branching wel snel. En dat zie je dus in die benchmark.

Waarschijnlijk gaat de unreal 3 engine veel van dynamic brancing gebruik maken. Dit is typisch iets dat voor (soft) shadows gebruikt gaat worden.
maar ook makkelijker te gebruiken door de ontwikkelaars waardoor snellere en efficientere SM3.0 effecten gemaakt kunnen worden
Das échte onzin. Shader Modells zijn natuurlijk standaarden, waaraan zowel nVidia als Ati zich moeten houden. De implementatie kan dus wel beter zijn bij de één of ander waardoor er performanceverschil kan zijn bij verschillende SM3.0 implementaties, máár er zit voor developers echt géén verschil in. Het is niet voor niets een standaard.
En dan specifiek het grafiekje dat Shadow Mapping met en zonder Flow Control aangeeft.
Je bedoeld Dynamic Flow Control? Dat is slechts een onderdeel van SM3.0. Helemaal geen bewijs dat de SM3.0 implementatie van Ati beter is. Keiharde in-game tests zijn vooral bij het testen van SM3 erg belangrijk. Een kaart of implementatie beoordeel je toch nooit op één techniek.
Dat is geen onzin, maar er zijn maar weinig mensen die begrijpen waarom het voor developers makkelijker is.

Voor developers is dynamic flow control een zegen. DAT maakt het makkelijker te gebruiken.

Zowel ATI als Nvidia hebben dynamic flow control geimplementeerd omdat ze zich aan de SM3 standaard moeten houden.
Maar de implementatie van Nvidia te langzaam om het ook daadwerkelijk efficient in spellen te gebruiken. De ATI implementatie is echter wel snel en dan is het wel de moeite waard om in spellen te gebruiken.

Vandaar dat ondanks dat ze zich beide aan de standaard houden, er wel degelijk voor developers een héél groot verschil in zit!

Het probleem zit er gewoon in dat de standaard niets zegt over de snelheid van de implementatie.
@Thamind

Ik bedoel inderdaad Dynamic Flow Control.
En het klopt dat dat maar een klein onderdeel is van SM3. Maar tegelijkertijd is dat wel het belangrijkste onderdeel van SM3.

Tegelijktertijd is het ook het belangrijkste verschil tussen de Nvidia implementatie en de ATI implementatie.

Als je dus verschillen gaat zien in SM3 spellen, dan zal dit aspect daarvoor verantwoordelijk zijn.

Het punt is gewoon dat SM3 niet zo bijster interessant is in vergelijking met SM2 als je geen dynamic branching/dynamic flow control kunt doen. Dat merk je ook duidelijk in de SM3 implementaties die er tot nu toe zijn gedaan.

Dat voorbeeld van de soft shadows illustreert heel mooi hoe deze functie zowel voor developers het leven een stuk simpeler maakt, maar bovendien de code veel efficienter maakt. En dan komt de echte kracht van SM3 naar boven.

De vraag is natuurlijk in welke mate developers dit gaan gebruiken. Ga je twee codepaths bouwen in je spel? Eentje voor kaarten die wel efficient branching kunnen doen en eentje voor kaarten die dat niet kunnen? Of gebruik je alleen het laatste codepath omdat alle kaarten dat kunnen?
En laat je de prestatiewinst van het eerste codepath dan maar achterwege omdat dat je tijd en dus geld scheelt in het maken van het spel?
Vanuit het oogpunt van developers is voor beide veel te zeggen.
Er is nog lang geen mobiele versie van X1000 serie. En zoals in het artikel staat is het ook zeer twijfelachtig of er wel 1 gaat komen. De desktop G70 is namelijk van in het begin ontworpen met mobile technologie, zo hebben ze 3 clock domains met verschillend aanpasbare kloksnelheden. De X1800 reeks daarentegen zijn echte desktop gpus.
En de enige vernieuwing van de X1800 reeks is de mogelijk van HDR + AA te doen. SM3.0 was zelfs een jaar lang nvidia only, zelfs nu voldoet ati niet aan de SM3 specs.
http://www.techreport.com/onearticle.x/8872
ATI voldoet volledig aan de SM3 specs.

Dat komt welliswaar doordat er een gat zit in de specs, maar het doet niets af aan het feit dat ATI volledig aan de specs voldoet.

De reden is ook simpel, omdat het gewoon een domme feature is die veeeeeeel te traag is en door geen hond gebruikt word.

Nvidia heeft er voor gekozen de zeer trage versie te implementeren in de wetenschap dat toch niemand het gebruikt. En ATI heeft er voor gekozen die zinloze feature helemaal niet te implementeren en developers te wijzen op een alternatieve methode die WEL snel is, en verder precies datgene levert wat de developers willen.

Pacific Fighters is het enige spel dat het kan gebruiken, en als je het aan zet krijg je met je super high-end systeem framerates tussen de 5 en 15fps. Totaal nutteloos dus.

Een storm in een glas water.

En voor mensen die alle details willen weten raad ik deze thread aan:
http://www.beyond3d.com/forum/showthread.php?t=24352
Weet iemand of laptopvideokaarten ook aan een bepaalde standaard dienen te voldoen qua afmetingen?

In dat geval speel ik namelijk al langer met het idee of het niet mogelijk is om de GPU van moderne laptop's via de onderkant te wisselen voor een sneller type :)

Ik heb nu weliswaar een X700, maar als dat past dan kan ik over een jaartje ook iets anders overwegen ;)

Edit: voor er reacties komen: de upgrademogelijkheden zullen idd ook samenhangen met de energie die de laptop kan leveren en het gebruikte slot (PCI-X of AGP)
Ik heb nog nooit gehoord dat je een grafische chip in een laptop kunt vervangen. Zover ik weet zitten die gewoon op het mobo gesoldeerd.
Bij veel van de laatste speciale gaming laptops is het mogelijk om je videokaart te vervangen.. Bijvoorbeeld bij de Dell XPS Gen 2 die ik heb, hier zit helaas net een 6800 ultra go in, maar ik zou hem in principe kunnen vervangen. Een paar dagen geleden zijn de technische service gasten bij Dell USA erachter gekomen dat de kaart te vervangen is en hier zou dan op dit moment ook een goede regeling voor moeten zijn voor de huidige XPS gen 2 bezitters (om te upgraden naar een 7800). Dell Europa en Dell Nederland is wat minder goed qua service maar ik zie het toch over een tijdje gebeuren dat we ook via deze service onze laptopkaart kunnen vervangen.

Grappig feitje overigens, op Dell usa is de upgrade van de standaard 6800ultra naar de 7800gtx 350$, in Nederland was die de eerste twee dagen 90 euro, in the UK 80 pond. En nu is ie in Nederland 250 euro geloof ik.
Ik heb nog nooit gehoord dat je een grafische chip in een laptop kunt vervangen. Zover ik weet zitten die gewoon op het mobo gesoldeerd.
Ahum. Mijn Dell Inspiron 7000 uit 1999 heeft "gewoon" een videomodule (lees: kaartje) die je aan de onderkant van de laptop eruit kan halen en kan vervangen door een sneller exemplaar. Zijn zat notebooks met deze optie, vooral die van Dell. :)
nVidia heeft de MXM standaard geintroduceerd, die idd de afmetingen, energieverbruik en hoeveelheid geheugen vaststellen in een standaard. Je hebt 3 versies en deze verschillen gewoon in de 3 genoemde punten. De meest zware variant is logischerwijs de grootste, vreet het meeste energie en maakt plaats voor het meeste geheugen. Helaas wordt de MXM standaard nog niet in iedere laptop ingebouwd, hoewel het echt een goed initiatief is. Ati heeft ook kaarten voor de MXM standaard (of er komen er nog). Ati heeft ook een eigen standaard, maar die bloed een beetje dood heb ik zo'n vermoeden. nVidia was ook eerder met zijn MXM standaard.

Edit: ze verschillen natuurlijk ook nog op koelvermogen :).
bijna goed... je hebt 4 soorten... de I, II, III en HE... ;)
De huidige X1000 serie gaat mobiel floppen.
(lees: NIET de GTX overheersen... en wat is het nut dan?).
Om een beetje in de buurt te komen van de GTX moeten ze veel sneller werken en dat verhoogd het energieverbruik en dus de hitte.

De GTX kan je voor dezelfde performance dus lager klokken en dat scheelt hitte en batterij en er is geen enkele logica die daar omheen kan.

24 pipes zullen altijd winnen van 16 als de rest van de eigenschappen gelijkwaardig zijn (speed en mem, shaders, vertex crap etc.)
Maar ze gebruiken ook minder transistors en dus minder energie en dus minder hitte.

De vraag is nu of de frequentie opweegt tegen de transistorcount.

Vaak lijkt hoge frequentie wel iets nadeliger, maar groot hoeft dat verschil niet te zijn.
Sorry maar in het plaatje zie ik toch geen verschillen van 10%. Eerder 20 tot 25%.

Maar ik bedoel wie gaat er nou gamen op plekken waar je geen stroom hebt :?
Zowel de core als het geheugen is 10% lager geklokt. Dus misschien daarom 2 x 10% = 20% ?
Interessant om te zien dat hier aardige grafische kaarten in gestopt kunnen worden. Medion zal ze wel niet in de nabije toekomst in hun 1000 euro laptopjes leveren :'(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True