Vooruitblik op GeForce FX Go

Vorige week kondigde nVidia de GeForce FX Go-serie aan. HotHardware vergeleek de specificaties met de concurrentie (ATi en Intel) en met z'n voorganger (de GeForce 4 Go). Samen met de ATi Mobility Radeon 9600 maakt de GeForce FX Go eindelijk serieus gamen mogelijk op de laptop. Met volledige DirectX 9-ondersteuning doet de draagbare grafische pracht en praal niet meer onder voor de desktop. Om stroom te besparen heeft de GeForce FX Go een aantal slimme features aan boord, dat door nVidia 'PowerMiser 3.0' wordt genoemd. De GeForce FX Go-core is op een 0,13µ-procédé gebakken en kan af met een laag voltage. De klokfrequentie en het voltage worden dynamisch aangepast, aan de hand van de vraag naar grafische rekenkracht. Om de CPU te ontlasten heeft de GeForce FX Go een complete unit voor het decoden en het (helpen met) encoden van MPEG2-video.

Om harde klappen uit te delen aan ATi, heeft nVidia met Electronic Arts een samenwerkingsverband afgesloten. EA zal in zijn games extra aandacht besteden aan de ondersteuning van nVidia's mobiele grafische chips. Dat wil niet zeggen dat videochips van andere fabrikanten niet met de toekomstige EA-games zullen werken, maar bepaalde features zullen op nVidia hardware beter tot hun recht komen. Hoe de draagbare pixelvreters gaan presteren weten we nog niet, maar dat serieus gamen op de laptop straks niet meer onderdoet voor desktop-gaming is zeker:

GeForce FX Go LogoBoth NVIDIA and ATi are bringing forth technologies that will blur the lines between Desktop and Mobile - Gaming, Multimedia and Video performance. We've seen what ATi's new Mobility Radeon 9600 can do first hand. We're looking forward to seeing what a GeForce FX Go 5600 can do, when it's cranked up to high res and pushing Doom 3 polygons. Make no mistake, Laptops are certainly not just for spreadsheets and word processing anymore.

Door David Menting

Nieuwsposter

16-03-2003 • 13:40

23

Submitter: T.T.

Bron: HotHardware

Reacties (23)

23
21
14
3
1
3
Wijzig sortering
Kennelijk is er een markt voor die de moeite en het geld van het investeren waard is. Waarom zou een laptop primair voor productiviteit gebruikt moeten worden? De GeForce FX Go maakt serieius gamen mogelijk bij eenzelfde stroomgebruik. De prijs om zo'n chip te bakken blijft gelijk. Waarom zou je dan geen serieuze gamefeatures in je chip mogen stoppen, puur omdat de laptop 'er niet voor bedoeld is'. Je verbreedt je markt er alleen maar mee.
Een gameboy heeft ook echt een 1600x1200 display :z

En wat dacht je van je laptop meenemen naar LANparties, scheelt een hoop gesjouw :)

Of op vakantie enz enz :)

(en de pc was vroeger ook niet bedoeld om spelletjes mee te spelen ;) )
Daar was een laptop niet voor bedoeld, toch.. Koop dan een gameboy als je toch zo graag spelletjes wil doen in de auto.


Nee, een laptop is zeker bedoeld voor Microsoft Office 2000 om daar Excel op te gaan gebruiken, wat in principe ook op een Pentium 133 Laptop kan :? Owhja.. daarom hebben de huidige laptops allemaal 2.4 GHz P4 Processors erin zitten, om te gaan textverwerken |:(

En ga nou niet zeggen dat we op een laptop Maya en 3D Studio Max gaan gebruiken :Z

Gamen moet juist wel mobieler worden, Nokia brengt nu toch ook hun N-Gage telefoon uit :? Kijk, als je nou een kind bent van 7 die niet weet waar de CTRL en ALT zit dan moet je een ding kopen met een vier-punt druktoets en een A en een B knop; oftewel, gameboy.
Om harde klappen uit te delen aan ATi, heeft nVidia met Electronic Arts een samenwerkingsverband afgesloten. EA zal in zijn games extra aandacht besteden aan de ondersteuning van nVidia's mobiele grafische chips
hiermee zet nvidia zich weer in zon lompe positie.. Ze onderkennen dat ze met normale DX features en de standaarden niet met Ati mee kunnen komen, dus doen ze het maar op deze manier..

beetje marktvervuiling in mijn ogen
Right, alsof ATi dat soort dingen niet doet. Eén van de beste manieren waarop je ondersteuning kan krijgen voor je architectuur is door rechtstreeks op de ontwikkelaars af te stappen. nVidia heeft heel veel ervaring op dat gebied, maar ATi is natuurlijk ook niet achtergebleven. Niet alleen luisteren deze bedrijven naar het commentaar over wat goed en slecht is aan de huidige producten, ze leveren ook gratis support (soms zelfs programmeurs), lossen problemen met de drivers op, bieden voorbeeldcode en tools aan, etc.

Nu staat er in deze nieuwspost toevallig dat nVidia dat doet met EA, en dan is het "marktvervuiling". Als je ook maar een beetje had gezocht dan wist je dat ATi exact hetzelfde doet met zijn "ATi Developer Relations"-programma. Reken maar dat EA ook met hen contacten heeft op dezelfde manier.
Zoals Wouter ook al zegt is dat op zich niet zo bijzonder in deze wereld. Idd doet ATi hetzelfde maar er zijn nog veel meer voorbeelden. Zo had nVidia destijds (lees: ca 3 jaar terug) al extra optimalisaties voor de AMD Athlon ingebouwd in haar Detonator-series, waardoor AMD een stapje vooruit was op Intel op dit vlak.
Ik vind dat er toch wel een verschil is tussen nVidia en ATi. Natuurlijk stoppen de beide fabrikanten de gamedevelopers veel geld toe om bv hun logo bij het opstarten (of elders) te laten verschijnen (bv UT2k3 -> nVidia en Rainbox Six: Raven Shield -> ATi), maar dit is niet zo maar een kwestie van marketing.

ATi heeft geen eigen taaltje ontwikkeld zoals nVidia . En nVidia probeert nu duidelijk Cg te promoten, terwijl ATi zich netjes aan de DX standaard houdt. Als meer gamedevelopers dit gaan doen, dan moeten Sis, ATi, Matrox en S3 straks ook wel Cg gaan ondersteunen en de speciale Cg-functies die nVidia in de FX heeft gestopt ook in hun eigen kaarten stoppen.

Wat dat betreft ben ik het eens met Catch22 en Hiostu dat dit helemaal niet zo'n goede ontwikkeling is.

Als gamedevelopers van EA straks gebruik maken van Cg dan kun je er donder op zeggen dat bepaalde effecten "FX-only" zullen zijn. En daar zit ik, en met mij vele anderen, waarschijnlijk niet echt op te wachten.

Krijgen we nu nog vaak het scherm "nVidia - The Way It's Meant To Be Played" te zien (gewoon flink veel voor betaald door nVidia), dan krijgen we straks zeker "nVidia - The Only Way It Can Be Played" of "nVidia - FX Is The Only Way For Optimal Graphics" te zien.

Er gaan nu ook al verhalen de ronde dat nVidia probeert Microsoft over te halen om FP16 als standaard in te stellen in DX9.1. DX9 vereist minimaal FP24, maar de FX kan alleen FP16 en FP32.
Op FP32 is de prestatie echter bagger, terwijl op FP16 de boel bijna 2x zo snel is, maar de beeldkwaliteit duidelijk minder is dan op FP24. Zie bijvoorbeeld de beruchte 3DMark2k3 Detonators. ATi heeft wat dat betreft de gulden middenweg gevonden. En nu wil nVidia dus proberen om DX9.1 op FP16 te krijgen, terwijl de update alleen voor bugfixes bedoelt was. Dit is dus ook weer zo'n typisch voorbeeld van een kat in het nauw die rare sprongen maakt.
Trekken ze de oude 3dfx ondersteuning weer uit de (door hun gekochte) kast :?
eindelijk serieus gamen mogelijk op de laptop
Moet ik me nu zielig vinden met mijn ati 7500 mobility? Of als ik een 9000 zou hebben? Zeker op die laatste kan je toch echt serieus een spelletje spelen!

Maar nu ontopic: Ik ben benieuwd hoeveel stroom die FX gaat vreten. De Geforce 2go en 4go waren altijd een stuk minder zuinig dan ATi mobility 7500. En aangezien NVidea zelfs laptopkoeling en energiebesparende technieken in een desktop moet toepassen om te zorgen dat hij niet smelt, verwacht ik dat de accu's een stuk zwaarder worden en de knieen een stuk heter 8-)
Ik heb op bv. de Dell Inspiron 8500 gezien dat de nieuwe form factor voor de grafische kaarten gepaard gaan met een mooie fan (vrij) dichtbij de GPU. Dat gaat dan om de GeForce Go 4200 en die schijnt meer stroom te lusten dan de GeForce Go FX'jes.

Qua stroom/batterijduur maakt dat voor gamende laptopeigenaren natuurlijk niks uit, want gamen doe je toch via A/C power om de simpele reden dat de energiebesparende maatregelen die gebruikt worden op enkel batterijstroom zoals SpeedStep (en de variant binnen de grafische 'kaarten' zelf) niet echt FPS-stimulerend zijn.
Dit hele gedoe rond Nvidia en Ati begint wel kinderlijk te worden zeg.
JIj pakt mijn snoepje af dan steel ik jouw hele snoeptrommel wel. nananana :P
Dat is allemaal wel leuk en aardig, maar waar ik echt naar benieuwd ben zijn de eerste benchmark (in games, want dat deze kaarten de voorgangers in 3DMark2003 wegblazen is niet meer dan logisch).

Wat dat betreft word je van dit stukje ook weinig wijzer over de daadwerkelijke performance ten opzichte van de bijvoorbeeld zo snel weggestopte GeForce Go 4200, die al maanden lang verwacht werd en pas nu eindelijk in de eerste notebook te vinden is.
Om harde klappen uit te delen aan ATi, heeft nVidia met Electronic Arts een samenwerkingsverband afgesloten. EA zal in zijn games extra aandacht besteden aan de ondersteuning van nVidia's mobiele grafische chips. Dat wil niet zeggen dat videochips van andere fabrikanten niet met de toekomstige EA-games zullen werken, maar bepaalde features zullen op nVidia hardware beter tot hun recht komen.
Dit soort samenwerkingsverbanden vind ikzelf niet goed voor de spelindustrie. In plaats van zelf een goede videokaart te maken betaal je gewoon andere fabrikanten om jouw kaart beter te laten lijken als die van de concurrent. Nou was de ATI vertegenwoordiging van EA al erg bagger....
Om harde klappen uit te delen aan ATi, heeft nVidia met Electronic Arts een samenwerkingsverband afgesloten. EA zal in zijn games extra aandacht besteden aan de ondersteuning van nVidia's mobiele grafische chips
Dan lijkt me dat dit ook (misschien in mindere mate) voor de desktopvarianten geldt.
Jaja, allemaal goed en wel, maar weet iemand hoe warm de kaart wel gaat worden??? Die gaat waarschijnlijk zeer warm worden=zwaardere koeler= meer lawaai |:(
Jaja, allemaal goed en wel, maar weet iemand hoe warm de kaart wel gaat worden???
Het gaat hier om een mobiele GPU en die zal niet rechtstreeks op een kaart geplaatst gaan worden. Deze worden geintegreerd op de notebook-moederborden zoals de diverse fabrikanten ze maken.
Die gaat waarschijnlijk zeer warm worden = zwaardere koeler = meer lawaai.
Ik denk dat dat nog wel mee gaat vallen. Naar een sneller chip, wat idd meer warmte zou betekenen, zijn er ook features die juist op een lage temperatuur duiden. Allereerst is daar de verkleining naar 130 nm en (mede daardoor) lagere voltage. Tevens zal deze GPU een techniek gebruiken die lijkt op SpeedStep van Intel en PowerNow van AMD.
Een zekkere Slime zet van Nvidia. EA is natuurlijk de grootste software publisher van games. Maar Ati moet toch echt terug gaan slaan.
maar dat serieus gamen op de laptop straks niet meer onderdoet voor desktop-gaming is zeker
Is dat wel zo? Ik denk dat de fabriekanten niet zullen stoppen om hun producten verder te pushen (ja, het gaat ten koste van stroomgebruik en warmte ontwikkeling), en aangezien je geen straalkachel op je schoot wil }>

"Geforce 6 Go - requires laptop with a free molex connector" :+

Op dit item kan niet meer gereageerd worden.