Mobiele 7800 GTX gaat gevecht aan met grote broer

Bij AnandTech is een korte vergelijking verschenen tussen de GeForce Go 7800 GTX en zijn grote broer, de GeForce 7800 GTX. Qua specificaties zijn er weinig verschillen tussen beide kaarten, de mobiele variant heeft dezelfde features en evenveel pipelines als zijn grote broer. Het grote verschil is de kloksnelheid, bij de GeForce Go 7800 GTX zijn zowel de core als het geheugen circa tien procent lager geklokt. Uit de benchmarks blijkt dat dit verschil in kloksnelheid, niet geheel verrassend, ongeveer eenzelfde procentuele verschil in prestaties veroorzaakt. Hiermee is een notebook met GeForce Go 7800 GTX-kaart prima in staat om de meeste nieuwe games te draaien op 1920x1200 met anti-aliasing, een prima prestatie. Op het moment heeft ATi nog geen mobiele videokaart die deze prestatie kan evenaren en AnandTech vraagt zich af of hier in de nabije toekomst verandering in zal komen. De hoge kloksnelheid van de Radeon X1800 XT zorgt voor een hoog energieverbruik, iets dat moeilijk te combineren is met een notebook. Voor de ultieme mobiele gameprestaties zal men dus momenteel bij nVidia moeten aankloppen.

Battlefield 2 benchmark GeForce Go 7800 GTX

Door Hielko van der Hoorn

10-10-2005 • 19:09

82

Bron: AnandTech

Reacties (82)

Sorteer op:

Weergave:

De hoge kloksnelheid van de Radeon X1800 XT zorgt voor een hoog energieverbruik, iets dat moeilijk te combineren is met een notebook.

Als je gaat gamen op je laptop, ook met de Nvidia, zul je snel door je accu zijn. Dan sluit je de laptop meestal toch op je adapter aan. Dus ik vind dat argument met van " ATi klokt sneller dus verbuikt meer dus neem Nvidia" geheel niet terecht.
Je hebt 100% gelijk. Maar ik denk dat vooral de warmteafvoer bij de nieuwe Ati-kaarten een probleem zal zijn.
nee hoor, gewoon wat extra fannetjes die alleen aangaan als je de videokaart /laptop intensief gebruikt
Heatpipe doet ook al wonderen met een gecombineerde grotere en krachtigere fan voor zowel GPU als CPU. Komt steeds vaker voor, een aantal fabrikanten schakelt inmiddels over op vloeistofkoeling binnen niet afzienbare tijd.
Mwha, het zal altijd gloeiend heet worden, ofje de lucht redelijk weet af te voeren of niet, een warm onderdeel van je laptop zal dat gewoon altijd deels afgeven aan de rest van de laptop (en jouw benen als je hem op schoot heb AUW:P)

Mannen oppassen dus voor de kwaliteit van uw nageslacht, tijdens het gamen NIT de laptop op schoot :)
Volgens mij zit je er warmpjes bij als je een laptop met een Mobiele 7800 GTX videokaart hebt.
(Letterlijk en figuurlijk. ;) )
Dat verschilt per merk. Laptop's met vergelijkbare prestaties van verschillende merken voelen soms heel anders aan. De fan heel langzaam continu laten draaien houdt de laptop erg koel (Dell D810) terwijl ik een acer en een Packerd Bell ernaast had die uit gingen, heet werden en dan opeens loeihard gingen blazen en dan weer uit gingen :? Dat is erg irritant en je laptop schommelt steeds in temp. En heet is dan erg heet ;)
Wat je zegt is niet juist.
De X1800XT verbruikt zo'n 25W meer maar je mag niet vergeten dat die kaart 512MB geheugen heeft.
Die extra 256MB 750Mhz geheugen zal zo'n 25W verbruiken. Dus zelfs met die hoge klok verbruikt de X1800XT core evenveel als de 7800GTX.
Wat jij zegt is niet juist, die extra 256MB zijn geen extra chips, hebben niet een grotere busbreedte, dus zullen nouwelijks extra stroom gaan gebruiken, en jij weet heus zelf ook wel dat 2 chips gebakken 90nm waarvan de een 300 en de ander 320 miljoen transistors heeft, die laatste meer stroom zal verbruiken, vooral als wordt rekening gehouden met de uber-hoge clock die die laatste bij zich draagd (en ja die clock kan wel naar beneden, maar dan houd ie de 7800 niet meer bij).
-Waarom zouden die 256MB geen extra chips zijn?
Die 256mb maakt wel degelijk uit qua vermogen.
Verklaar dit verschil eens anders?:
http://www.xbitlabs.com/i...adeon-x1000/power_x18.gif
-De 7800GTX mobile is niet op 90nm gebakken, de X1800 wel inderdaad
-Alsof het aantal pipelines ondergeschikt is aan de clocksnelheid van de chip in termen van energieconsumptie? Ik denk het niet ;)
En al helemaal niks zeggend is het aantal transistors (nvidia en ati tellen allebei anders en hoeveel van die chips zijn er nodig tijdens het gamen?)
-Men verwacht dat de mobile versie van de X1800 chips gebaseerd zal zijn op de R580 core.

Overigens zal ik het waarschijnlijk eens zijn met jouw stelling dat ATi meer vermogen gebruikt op het moment dan Nvidia, maar je oordeelt op de verkeerde argumenten!
Het aantal transistors is iets anders als het aantal GFLOPS ofzo, in princiepe hoort het een vast getal te zijn, en er hoort maar een manier van tellen te zijn (1, 2, 3, 4, 5), daarbij komt nog dat ATi in het verleden altijd erg conservatief oer het aantal transistors blijkt (zitten er vaker onder dan boven) in tegen stelling tot nVidia, dus het verschil kan alleen maar groter worden.

En dan nog iets
nieuws: nVidia komt met mobiele versie van GeForce 7800 GTX
B-)

Het aantal chips neemt niet toe, omdat het aantal chips gewoon niet toe neemt.........waarom zouden ze ook, dan zouden de chips een smallere bus moeten gebruiken.

Dat verschil zit hem misschien in het feit dat het ram op 1,5GHz loopt, of de core die op 600ennogwat MHz loopt? Feit blijft, en dat heeft intel ons wel erg goed voorgedaan, hogere clocksnelheden = oneveredig veel stroom verbruik.
[quote]Het aantal chips neemt niet toe, omdat het aantal chips gewoon niet toe neemt.........waarom zouden ze ook, dan zouden de chips een smallere bus moeten gebruiken.[quote]

Dus volgens jou hebben videokaarten altijd maar 1 RAM chip aan boord? Persoonlijk heb ik geloof ik nog nooit een moderne videokaart gezien met maar 1 RAM chip (niet dat ik zoveel kaarten heb gezien...maar OK).
De breedte van de bus naar 1 chip of het aantal chips hoeft nog niets te zeggen over de totale busbreedte van het geheugen:
Je kan bijvoorbeeld bij een 16-bits bus met 2 chips de 8 lage bits opslaan in chip1, 8 hoge bits in chip 2 -> totale busbreedte 16-bit.
Of (volgens mij gebruikelijker) je slaat bij een totale geheugen capaciteit van X MB de hoogste X/2 MB op in chip1 (met 16-bits databus) en de laagstre X/2 MB in chip2 (met 16-bits databus). De adres bus van beide chips kan dan 1 bit kleiner dan wanneer je 1 chip van X MB gebruikt (natuurlijk die ene bit gebruik je dan om tussen beide chips te "schakelen").
Toch zal een nVidia GeForce Go 7800GTX waarschijnlijk wel langer meegaan alleen is het inderdaad niet acceptabel. Maar omdat hij meer pipelines heeft zal hij bij een underclock wel betere prestaties dan ATI underclocked en langere misgien acceptabele levensduur van de accu. Dan kun je toch nog steeds mooi gamen en toch mobiel. Verder omdat de ATI zo hoog is geclocked heeft deze voor notebooks zelfs wel een hitteprobleem.
Nou, als je met die nVidia plank een uur kunt gamen en met die ATI plank drie kwartier, dan ken ik wel een treinreisje dat je precies niet haalt. Tuurlijk game je veelal aan het infuus, maar het moet ook zonder kunnen ander spreek je van een portabe desktop. Stroomverbruik (en testicle-scorch-factor) zijn voor een laptop wel degelijk issues: daarom is het een laptop ipv een desktop!
Als je mobiel gamed heb je normaal een notebooktas waarin je hem vervoert.

Ofwel als je ergens rustig gaat zitten is er vaak wel een stopcontactje te vinden.

Ik vind het ideaal, je kan overal heen met je pc, en overal gamen.
zeer nette scores voor een mobile,
tegenwoordig is er aardig te gamen op laptops.
ik vraag me alleen af hoe lang een laptop doet met een vga zoals deze (accutijd).
Dat moet inderdaad niet zo lang zijn.

Maar volgens mij koop je zo'n laptop dan niet om mobiel (op accu) te gamen.
Een voordeel van een laptop is niet enkel dat je zonder stekker je laptop kan gebruiken, maar dat deze gewoon mobiel is, in de zin van je bestanden en instellingen altijd bij je hebben.
Zit anders vaak genoeg in de trein te gamen, denk aan fahrenheit en AoE III, heb een X700 in me laptop, werkt dus prima! Game nu alleen nog maar op me laptop omdat ie me desktop dik inhaalt (2400+, GF4TI)...
Het echte gamen doe je dan toch thuis, werkplaats, hotel of bij een vriend via LAN/WiFi.

Dan is er meestal ook wel een powerplug te vinden.

En een laptop is dan een stuk handiger om mee te slepen dan een tower.
Als je gaat gamen op 1600x1200 of 1900x1200 heb je ófwel een monitor aan je notebook gehangen (dus dan moet stroom ook geen probleem zijn) óf je hebt een laptop met een groot scherm - en dat zijn meestal de desktop replacements, die niet echt bedoeld zijn om lang zonder stroom te werken.

Als je een handzame subnote hebt die lang zonder snoer gebruikt wordt, zal die meestal een scherm hebben dat niet veel groter is dan 12" of 14" en daar een resolutie van 1024x768 of misschien nog net 1280x1024 op draaien. En die subnotes kunnen dat dus prima af met een "simpelere" VGA kaart als je daar op zou willen gamen. Maar meestal zit daar een geïntegreerde graphics chipset in, waar je sowieso niet mee kunt gamen.

Het hele verhaal is dus in feite alleen relevant voor "grote" desktop replacement notebooks, dat zijn zo'n beetje de enige met dit soort chips, en daar is energieverbruik dus minder belangrijk voor ;) Ze worden meestal relatief stationair gebruikt en vrij weinig rondgesleept.
Hij verbruikt niet meer dan zijn tegenhanger in de 6800 reeks...
In het vorige nieuws item over de GO 7800 GTX (mobile dus) stond dit:
De kloksnelheid wordt verder omlaag geschroefd als de gpu weinig te doen heeft: waarden tot 16MHz zijn mogelijk, terwijl bepaalde gedeeltes van de chip zelfs helemaal uitgeschakeld kunnen worden. Ook kan de chip op rustige momenten toe met een lager voltage en vijftien van de zestien PCIe-lanes kunnen worden afgekoppeld. Daardoor kan de Go7800 GTX toe met 'niet méér' energie dan voorganger Go 6800, en zou de warmteafgifte zelfs aanzienlijk lager uitvallen.
De gpu gebruikt dus alleen de hoeveel energie die hij/zij(de kaart) of jij(de gebruiker) denk nodig te hebben. Ik verwacht dat er software bij zal zitten waar je van die mooie profielen in kan stellen zoals "economic" of "power" waarmee je het energie verbruik kan regelen.

Om maar in cpu termen te gaan praten: nVidia is flink bezig de "performance per watt" op te krikken...
[off-topic] nVidia VS ATI wordt nu steeds meer Intel VS AMD :7 [/off-topic]
Gewoon combineren met centrino platformpje. Het mooie is dat de laptop makkelijk 4 uur mee als je niet gamed en als je wilt gamen niet maar dan hang je m aan netspanning
Intel en gamen gaat niet echt samen, zeker in de cpu limited games van tegenwordig.
zoiets van dit:

YES! level 10 gehaald, nu even save.... WTF! accu leeg! NEEEEE. :P
Een eerlijk vergelijking? De laptop heeft een pentium 670, 2GB RAM en de desktop een AMD Athlon 64 FX-55+1GB RAM. Verschil is wel groot hoor tussen de beide systemen.
Daarom heeft die desktop natuurlijk minder intern geheugen! Toch nog een beetje gelijk trekken!

Ze zullen wel bedoelen: gelijk naar verhouding: Best presterende mobiele CPU vs Best presterende "vaste" CPU etc.!
Mwha, de processor heeft een beduidend minder grotere invloed op het geheel dan geheugen of videokaart, voornamelijk dat laatste natuurlijk. Nogsteeds geen eerlijk vergelijk dus, maar de vraag is hoe extreem het verschil is tussen een zeer oude en zeer nieuwe CPU waar de videokaart hetzelfde is (nu met PCI-E wat problematisch uit te voeren, ja I know..)

Geloof dat het al eens gedaan is door een PC blad en nauwelijks bleek te schelen.. paar procent ofzo maar niet meer iig.
ik denk dat die amd fx-55 die pentium er in meeste games dik uittrekt met een procentje of 5-10.
Dit is geweldig nieuws voor iemand die veel naar LAN party's gaat.
Geen gesleep meer met kasten en schermen enzo.
Gewoon ff je laptoppie neer zetten en gamen maar. ;)
volgens mij is dat gesleep met kasten en schermen juist de charme van naar lan party's gaan zoveel mogelijk zo groot mogelijke zooi meezeulen...

22" CRT geen probleem :) bigtower okee dan..

maar een gamelaptop is ook wel handig IDD maar ik vind zeulen met logge bakken (veel plaatstaal in een kast is koel) ook wel wat hebben.. :) geeft iig leukere verhalen achteraf...

"moest ik me 22" helemaal naar boven zeulen" klinkt veel sexyer dan "ik klap mijn laptop open en hop ik was er klaar voor"..

maar smaken verschillen...
ik heb geen auto, wat wil je doen dan?
Vervoer regelen :), er zijn altijd wel mensen bereid een eindje voor je te rijden, zeker als iemand uit de zelfde richting komt :). Althans zo probeer ik het te regelen voor een (kleine) lan-party die ik nu organiseer, rond de 25 man. Paar mensen uit de omgeving hebben geen vervoer dus regel ik dat voor ze, zelf ook geen auto maar wel ene moeder met auto... :P En zo wel anderen die een auto hebben en ff wat mensen oppikken.

Tot nu toe hier braaf geweest, dus maar ff reclame maken (A): iedereen met interesse in een LAN-party in Enkhuizen (Noord-Holland) kan even naar www.bakkie-lan.nl gaan (als die nog niet werkt: http://cobis.dyndns.biz/bakkie-lan).

*benieuwd of ik vergeven word :P*
Vrienden van mij zitten gerust in de trein met 22" CRT's en Big Towers, Dat worden pas verhalen ;)
Ik ga voornamelijk om te leechen naar een LAN party.
Met een laptop zit je al gauw vast tot ong 100/120 GB. Of je moet met een bult externe disken werken.
wel erg jammer dat al die game-laptops zo duur zijn :'(
maar dat zal de echte diehards toch wel niet tegenhouden ;)
ik merk steeds vaker dat eigenlijk de hardware niet zo verkeerd is van mn laptoppie maar de upgrade mogelijkheden erg beperkt zijn. ik zit nog met een 5650 to go te werken. ik zou maar wat graag naar dit willen upgraden maar helaas.. niet mogelijk. verder voldoet mn laptoppie nog wel aan de eisen die ik heb. ik zou dan ook liever zien dat hier wat meer aan gewerkt werd.
nVidia werkt al langer daaraan, dat MXM van ze, maarja, als OEMS het links laten liggen, gebeurt er niets.
Tja, de OEMs hebben hier totaal geen behoefte aan. Die hebben liever dat jij een nieuwe laptop koopt ipv een nieuwe MXM videokaart.

OEMs gebruiken MXM wel om nieuwe modellen makkelijk in hun productielijn op te nemen. (Vandaar bv dat ATI al lang daarvoor met pincompatible gpu's was gekomen)

Als Nvidia MXM echt voor de consument nuttig wil laten zijn, dan moeten ze er voor zorgen dat losse MXM kaarten in de retail terecht komen.

Voorwaarde daarvoor moet natuurlijk wel zijn dat een nieuwe MXM kaart geen problemen gaat opleveren in een bestaande laptop. Daarvoor zouden ze dan bv eisen kunnen stellen aan de warmte die een MXM kaart mag opleveren etc.

Maar volgens mij is dat op dit moment niet in de specs opgenomen, dus loop je als consument een risico als je zomaar een kaart gaat vervangen.
de echte diehards gamen niet op een laptop
jawel want dan kan je ultramobiel van lan party naar lan party racen en zo'n videokaart houd je daar niet in tegen :P
Weet iemand of laptopvideokaarten ook aan een bepaalde standaard dienen te voldoen qua afmetingen?

In dat geval speel ik namelijk al langer met het idee of het niet mogelijk is om de GPU van moderne laptop's via de onderkant te wisselen voor een sneller type :)

Ik heb nu weliswaar een X700, maar als dat past dan kan ik over een jaartje ook iets anders overwegen ;)

Edit: voor er reacties komen: de upgrademogelijkheden zullen idd ook samenhangen met de energie die de laptop kan leveren en het gebruikte slot (PCI-X of AGP)
Ik heb nog nooit gehoord dat je een grafische chip in een laptop kunt vervangen. Zover ik weet zitten die gewoon op het mobo gesoldeerd.
Bij veel van de laatste speciale gaming laptops is het mogelijk om je videokaart te vervangen.. Bijvoorbeeld bij de Dell XPS Gen 2 die ik heb, hier zit helaas net een 6800 ultra go in, maar ik zou hem in principe kunnen vervangen. Een paar dagen geleden zijn de technische service gasten bij Dell USA erachter gekomen dat de kaart te vervangen is en hier zou dan op dit moment ook een goede regeling voor moeten zijn voor de huidige XPS gen 2 bezitters (om te upgraden naar een 7800). Dell Europa en Dell Nederland is wat minder goed qua service maar ik zie het toch over een tijdje gebeuren dat we ook via deze service onze laptopkaart kunnen vervangen.

Grappig feitje overigens, op Dell usa is de upgrade van de standaard 6800ultra naar de 7800gtx 350$, in Nederland was die de eerste twee dagen 90 euro, in the UK 80 pond. En nu is ie in Nederland 250 euro geloof ik.
Ik heb nog nooit gehoord dat je een grafische chip in een laptop kunt vervangen. Zover ik weet zitten die gewoon op het mobo gesoldeerd.
Ahum. Mijn Dell Inspiron 7000 uit 1999 heeft "gewoon" een videomodule (lees: kaartje) die je aan de onderkant van de laptop eruit kan halen en kan vervangen door een sneller exemplaar. Zijn zat notebooks met deze optie, vooral die van Dell. :)
nVidia heeft de MXM standaard geintroduceerd, die idd de afmetingen, energieverbruik en hoeveelheid geheugen vaststellen in een standaard. Je hebt 3 versies en deze verschillen gewoon in de 3 genoemde punten. De meest zware variant is logischerwijs de grootste, vreet het meeste energie en maakt plaats voor het meeste geheugen. Helaas wordt de MXM standaard nog niet in iedere laptop ingebouwd, hoewel het echt een goed initiatief is. Ati heeft ook kaarten voor de MXM standaard (of er komen er nog). Ati heeft ook een eigen standaard, maar die bloed een beetje dood heb ik zo'n vermoeden. nVidia was ook eerder met zijn MXM standaard.

Edit: ze verschillen natuurlijk ook nog op koelvermogen :).
bijna goed... je hebt 4 soorten... de I, II, III en HE... ;)
Sorry maar in het plaatje zie ik toch geen verschillen van 10%. Eerder 20 tot 25%.

Maar ik bedoel wie gaat er nou gamen op plekken waar je geen stroom hebt :?
Zowel de core als het geheugen is 10% lager geklokt. Dus misschien daarom 2 x 10% = 20% ?
Interessant om te zien dat hier aardige grafische kaarten in gestopt kunnen worden. Medion zal ze wel niet in de nabije toekomst in hun 1000 euro laptopjes leveren :'(
De huidige X1000 serie gaat mobiel floppen.
(lees: NIET de GTX overheersen... en wat is het nut dan?).
Om een beetje in de buurt te komen van de GTX moeten ze veel sneller werken en dat verhoogd het energieverbruik en dus de hitte.

De GTX kan je voor dezelfde performance dus lager klokken en dat scheelt hitte en batterij en er is geen enkele logica die daar omheen kan.

24 pipes zullen altijd winnen van 16 als de rest van de eigenschappen gelijkwaardig zijn (speed en mem, shaders, vertex crap etc.)
Maar ze gebruiken ook minder transistors en dus minder energie en dus minder hitte.

De vraag is nu of de frequentie opweegt tegen de transistorcount.

Vaak lijkt hoge frequentie wel iets nadeliger, maar groot hoeft dat verschil niet te zijn.
Het grote verschil is de kloksnelheid, bij de GeForce Go 7800 GTX zijn zowel de core als het geheugen circa tien procent lager geklokt. Uit de benchmarks blijkt dat dit verschil in kloksnelheid, niet geheel verrassend, ongeveer eenzelfde procentuele verschil in prestaties veroorzaakt.
Ik noem 20,22,20 en 21% (voor BF2) niet eenzelfde als 10%. Je zou bij 10% verschil in klok en mem een kleiner dan 10% verschil verwachten aangezien voor dit soort gpu's de cpu ook bottleneck kan/zal zijn. Vermoedelijk is er dus wel meer verschillend dan alleen de klok en mem snelheid.

Op dit item kan niet meer gereageerd worden.