Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 17 reacties
Bron: GamePC

Met de komst van de GeForce4 440 Go heeft nVidia een grote stap voorwaarts gezet om marktaandeel te kunnen winnen. De GeForce2 Go is in vergelijking hierbij slechts het opstapje geweest van nVidia. Met de huidige 15" TFT-monitoren, die tegenwoordig standaard bij een laptop geleverd worden, kan de Geforce4 Go de resolutie van 1024x768x32 makkelijk aan. Daarboven wordt het wel problematisch, afhankelijk van het spel dat je speelt. Ook is spelen in de power-mode niet echt aan te raden, aangezien de prestaties onder die van de GeForce2 terecht komen, de processorcore draait dan wel slechts 1.525V. Uit het review vallen de volgende citaten nog te noteren:

Geforce4 440 Go nVidia is also making a separate version of the GeForce4 Go without the discreet packaging which uses standard external memory chips, which are used in notebooks with the GeForce2Go. These separate graphics chips will most likely cost a little less, and not perform exactly the same as their discreet brethren, but still should give performance better than other mobile graphics chips currently on the market.

According to nVidia's tech docs, PowerMizer's three levels of optimization can help save up to 25% of the power used by the graphics chip. Balanced mode can save up to 20%, whereas maximum power saving mode can save up to 25%. At its lowest setting, nVidia states the GeForce4Go processor can consume as little as 1.525V, impressive for a graphics core of this calibur.

Met dank aan john80 voor de tip.

Moderatie-faq Wijzig weergave

Reacties (17)

Met de huidige 15" TFT-monitoren, die tegenwoordig standaard bij een laptop geleverd worden, kan de Geforce4 Go de resolutie van 1024x768x32 makkelijk aan
Beetje rare zin. De grootte van een monitor zegt niet alles over zijn resolutie. Neem bijvoorbeeld de iBook van Apple. Deze laptop heeft een schermresolutie van 1024x768, maar is in 2 uitvoeringen verkrijgbaar, namelijk met een 12,1 en een 14,1 inch scherm. Ook Sony levert laptops met verschillende scherm-afmetingen, maar wel met de resolutie 1024x768.

Wel is het duidelijk dat de doorsnee laptop vandaag de dag met een 1024x768-resolutie TFT wordt uitgevoerd (uitzondering: de Apple PowerBook G4 heeft een schermresolutie van 1152x768, wat iets uitgerekter is).
Daarboven wordt het wel problematisch, afhankelijk van het spel dat je speelt.
Zoals in de review wordt aangegeven, is het ook bij een schermresolutie van 1024x768 erg fijn als je videokaart hogere resoluties aankan. Je kan dan FSAA(Full Screen AntiAliasing) toepassen, waardoor het beeld er gelikter uitziet. Helaas is de Geforce4 Go hiervoor nog niet krachtig genoeg.
ok true,

maar over het algemeen heb je met een 15"TFT monitor, 1024x768 als schermgrootte ingesteld. :)

edit : wmeester was net iets eerder
De meeste laptop schermen zijn geloof ik niet 32 bits toch???

Vaker 16 of 24....
Er is geen verschil tussen 24 bit en 32 bit qua schermweergave. Bij 32 bit worden er n.l. 8 bits gebruikt voor o.a. het alpha kanaal.

Beide geven 16,7 miljoen kleurtjes weer...
Over het algemeen is het zo dat de grotere schermen (15") op 1024*768*32 draaien. En daarom is het zeer fijn dat je een spel ook op fatsoenlijke snelheid kan draaien op deze resolutie met deze chip/
Denk ook aan 15.0" SXGA (1400 x 1050) of 15,0 UXGA (1600 x 1200) notebook schermen.
(leveraar bij bijna alle merken)
Graphics nVidia GeForce4 440 Go 32MB
Processor Intel Pentium III-M 1.10 GHz 3776 3DMarks --> GamePC Review
Processor Intel Pentium III-M 1.066 GHz 3612 3DMarks --> TT-Hardware

Mobility Radeon 7500 64 MB
Processor Intel Pentium III-M 1.133 GHz 3905 3DMarks --> TT-Hardware

Ben nu toch wel heel erg benieuwd wat de 64 MB versie van de GeForce4 440 Go zal doen in 3DMark2001
dat extra geheugen maat uhm niet zoveel sneller hoor, en zeker niet zuiniger.

Mobility radeon 7500 is sneller, en doet dat, erg belangrijk, met ruweg de helft vermogen van de gf4 go in powersave modus.

Ati is dus voor notebooks de onbetwiste winnaar
sorry maar dat extra geheugen kan onder bepaalde condities weldegelijk een GROOT verschil uitmaken. Wanneer je (bijvoorbeeld) een laptop met 128mb intern geheugen hebt en een gfx card (geforce2go bijvoorbeeld, zoals mijn electronisch kladblok) met 'slechts' 32mb aan boord,..... dan zal die extra 32 mb erg welkom zijn op de grafische plank. Alle rommel die je daar nl. in kwijt kunt hoeft niet in je 'gewone' geheugen. Dat gewone geheugen is bij games (om maar iets te noemen) vaak niet de bottelneck, maar wel de doorgaans trage harddisk die in de meeste laptops zitten. Zodra het swappen begint, begint eveneens de ellende. Meer geheugen in de grafische kaart is in een laptop dus misschien wel belangrijker dan in een gewone grafische kaart.

<TOPIC RAPE MODUS>
Over dat ATI verhaal heb ik niet zoveel te melden, alleen dat ik jouw bevindingen/mening zeker niet kan delen. Ik heb het zien draaien en kan niet zeggen dat ik de framedrops als positief opwindend kan ervaren. Zou mijn 'Ge-kracht2 Gaan' er zeker niet voor willen inruilen.
<TOPIC RAPE MODUS>

(btw: een troll voor jouw posting vind ik een beetje erg zwaar. schuif die maar door naar mijn posting als we dan toch zielig moeten gaan zitten modden)
dat extra geheugen maat uhm niet zoveel sneller hoor
Maar die dikke 128-bit bus wel. 8Gb/s in je lappie :9~
Ook is spelen in de power-mode niet echt aan te raden, aangezien de prestaties onder die van de GeForce2 terecht komen
Ik neem aan dat ze hier de gf2 GO bedoelen?

Want als je een laptop hebt met een videokaart die , nou wel of niet in save mode, de power heeft van een normale geforce2 heb je wel een vette laptop hoor.

Net als of je met een gf2 de nieuwste spellen niet goed kan spelen op 1024*786*32 ? :?
Ik neem aan dat ze hier de gf2 GO bedoelen?

Klopt :)

Want als je een laptop hebt met een videokaart die , nou wel of niet in save mode, de power heeft van een normale geforce2 heb je wel een vette laptop hoor.

Dat is in dit geval dus het geval. De GeForce4 440 Go is in deze test sneller dan de GeForce2, en vergelijkbaar met de GeForce2Ultra.

Net als of je met een gf2 de nieuwste spellen niet goed kan spelen op 1024*786*32 ? :?

Je kan met een GeForce2 echt niet alle spellen op 1024*786*32 draaien. Dan moet je denk aan Aquanox etc. Misschien als je een GeForce2Ultra met een vergelijkbare proc (ong. 1000Mhz) hebt, maar anders echt niet.
hmm is het nu zo dah je met een dikke verleng snoer achter je kont aan moet lopen dah anders je batterij leeg is???/
want lijkt me dah dit ook weer meer stroom vraagt en daarom je accu een stuk sneller leeg zal zijn
In het nieuwsitem staat duidelijk dat de GF4 Go minimaal twee modussen heeft, een normale mode, en een power mode. Dus als je onderweg bent, zet je (al dan niet automatisch) power mode aan en verbruikt de GPU minder energie dan normaal en kan je lekker lang met de accu doen.

Als je dan ergens aan het stroomnet hangt, kan je lekker de volledige snelheid gebruiken, want dan maakt het stroomverbruikt toch niet uit.

Als de GF4 Go de accu binnen een half uur zou leegslurpen, zou de GPU onverkoopbaar zijn, en dat wil nVIDIA natuurlijk niet. Overigens heeft de ATi 7500 mobile ook dezelfde feature's.
Deze mobiele versie is pas de 2de generatie van nVidia. Hiervoor hebben ze ook weinig ervaring met stroombesparende chips ontwerpen. Het verbaas me dus helemaal niet dat het of stroomvretend of performance verlies is.

De jaren lange ervaring van ATI en S3 halen ze niet zomaar 1-2-3 in. Net zoals AMD die niet in een keer een low-voltage energiesparend CPU kan toveren. ;)
Wat een ongelooflijk slechte review zeg. Daar zitten we toch niet op te wachten?

Om maar even de ergste punten te noemen:

1) Die mensen doen beweringen die ze totaal niet kunnen onderbouwen. Zoals bv die ene die hier ook genoemd staat: "These separate graphics chips will most likely cost a little less, and not perform exactly the same as their discreet brethren, but still should give performance better than other mobile graphics chips currently on the market."
Da's knap dat je dat kan beoordelen als je geen enkele andere concurrent getest hebt. Hoezo gewoon het marketing geleuter van Nvidia rechtstreeks overgenomen?

2) Ze schijnen niet eens te weten dat de ATI Radeon Mobility al zeer lang in notebooks verkrijgbaar is, maar doen alsof die pas zeer recent beschikbaar is.

3) De ATI Radeon Mobility 7500 schijnen ze al helemaal niet te kennen want die wordt nergens genoemd. Terwijl dat ding juist de grote concurrent is van de Gf4go (IMO ook beter dan de GF4go) en al langer dan de Gf4go daadwerkelijk in notebooks te verkrijgen is.

4) De geforce2Go waarmee ze vergelijken is een 16MB versie. Ja nogal wiedes dat die 32MB gf4 dan veel sneller is. We weten toch allemaal dat het verschil in snelheid tussen 64 en 32MB maar laag is, maar dat het verschil tussen 32 en 16MB aanzienlijk is. En dat dus terwijl je die geforce2go ook gewoon in 32MB uitvoering kan krijgen.

Zitten we hier nou echt te wachten op reviews van zo'n triest nivo?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True