Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: nVidia

nVidia heeft vandaag de eerste videochips voor notebooks met DirectX 9-ondersteuning geïntroduceerd. De chips zijn gebaseerd op de GeForce FX-architectuur en gaan door het leven onder de namen GeForce FX Go 5600 en GeForce FX Go 5200. De GeForce FX Go 5600 en 5200 hebben grote overeenkomsten met hun desktop-varianten die vorige week geïntroduceerd werden.

nVidia GeForce FX logoDe GeForce FX Go 5600 is evenals zijn desktop-variant gebakken met behulp van een 0,13 micron productieprocédé en heeft een kloksnelheid van 350/350MHz (core/geheugen). Ten opzichte van de originele GeForce FX 5800 Ultra moet de chip het doen met de helft van de pipelines: vier in plaats van acht. De GeForce FX Go 5200 heeft eveneens vier pipelines, maar krijgt een kloksnelheid mee van 300MHz. Tevens mist de chip efficiëntiebevorderlijke features zoals kleuren- en z-compressie. Verder zal de chip gebakken worden met behulp van een 0,15 micron in plaats van een 0,13 micron productieprocédé.

Om wat te doen aan het stroomverbruik van de chips heeft nVidia de GeForce FX Go familie uitgerust met de zogenaamde PowerMizer 3.0-technologie. Dit zorgt ervoor dat delen van de chip uitgeschakeld worden indien ze niet in gebruik zijn en tevens maakt dit variabele kloksnelheden en voltages mogelijk. Ook heeft de gebruiker in het configuratiescherm de mogelijkheid te kiezen tussen maximale performance, maximale gebruiksduur of iets daartussenin. Een ander punt dat verbeterd is, is de MPEG-2 decoder. Deze gebruikt minder stroom en geeft een betere beeldkwaliteit ten opzichte van de GeForce4 Go, een welkome verbetering voor mensen die graag onderweg een DVD kijken:

NVIDIA Corporation (Nasdaq: NVDA), the worldwide leader in visual processing solutions, today introduced the NVIDIA® GeForce™ FX Go series, the industry’s first family of DirectX 9.0-class mobile graphics processing units (GPUs). Designed to bring cinematic computing and unprecedented video capabilities to notebook PCs, the NVIDIA GeForce FX Go5600 and Go5200 GPUs deliver state-of-the-art 3D graphics performance and uncompromised DVD playback for demanding notebook users. This new family of mobile GPUs will be on display at CeBit 2003, in Hannover, Germany.
GeForce FX Go 5200 chip

Bezoek nVidia.com voor meer informatie over de GeForce FX Go-familie.

Moderatie-faq Wijzig weergave

Reacties (43)

dit is een behoorlijke vooruitgang zijn voor de gamers die op een laptop willen, nog steeds vind ik het jammer dat je juist dit soort dingen niet kan vervangen op een laptop.
Bij dell kun je ze bij de meeste modellen gewoon vervangen. Dan kun je kiezen tussen Geforce2go, Geforce4go en Radeon9000. Ze zijn ook voor een groot deel uitwisselbaar voor zover ik weet :)

Deze chip zal ook wel in het rijtje erbij komen.
Het vervangen is het punt niet, er is alleen haast niet aan te komen.
Zowel het vervangen als het verkrijgen van de onderdelen is geen enkel probleem. De part nummers kun je zo van het Dell forum halen en bij Dell spare parts bestellen. Daarna pak je de service manual erbij waarin precies beschreven staat hoe je onderdelen kunt vervangen :)
Kiezen bij Dell heb je gelijk in. Echter zelf vervangen door een snellere zoals ChimeraOffline bedoelt zit er niet in.
alleen jammer dat al die mooie GFX producten nergens te krijgen zijn...
Ik vind het vreemd dat ze die GeForce FX 5200 go op 0.15 micron bakken, terwijl ze de wafer voor het 0.13 micron productieprocédé toch al geproduceerd hebben.

Het maken van de wafer is uiteindelijk het duurst toch? en de uitval van chips word toch ook min of meer gecompenseerd door het toegenomen aantal chips dat uit een plaat 'zand' gebakken kan worden.

Dus ze hebben de wafer al, maar moeten nu twee verschillende productie lijnen naast elkaar draaien.

Daar komt nog bij dat ze allerlei mogelijke trucs uithalen om het energieverbruik laag te houden, terwijl ze de ene dus op 0.15 micron uitbrengen, en het lijkt mij dat daar toch een grote winst geboekt kan worden bij het beperken van de consumtie..
Tja, een kat in het nauw maakt rare sprongen.

En Nvidia maakt nogal wat rare sprongen de laatste tijd...

Wellicht geeft het ook aan hoeveel problemen ze nog steeds met .13 hebben, als ze nu waarempel bij een laptop gpu naar .15 terug gaan.
de GFFX 5200 voor de desktop is ook 0,15 micron.
http://www.tweakers.net/nieuws/25833
Man wat heb je eraan :? ga jij eens proberen om een spel op je laptop te gaan spelen . . . met je touchpad cker ??? haha nou nee bedankt ik speel wel gewoon op mijn desktop pc :)
Mijn zusje heeft een Dell-laptop met een GeForce2 Go! erin die ze gebruikt als Desknote.

Speelt ze regelmatig een potje GTA3 op en daarin is ze vast niet de enige. Ik juig de ontwikkeling van snellere GPU's voor notebooks dan ook van harte toe :)

Het enige nadeel is van die GeForce Go!-chips dat ze vaak niet compatible zijn met de normale Detenator-drivers dus dat je altijd lang moet wachten op een up-to-date versie :{
laptops hebben ps/2 en usb poorten ;)
Ten opzichte van de originele GeForce FX 5800 Ultra moet de chip het doen met de helft van de pipelines: vier in plaats van acht.
(er zaten er toch maar 4 in eigenlijk :? )
nee, maar hij gebruikt er normaal maar 4 ofzoiets... Weet iemand hoe dit precies zit? Want als hij bij de meeste spellen maar 4 ipv 8 pipelines gebruikt is in principe een 5600 net zo snel als een 5800 of niet?
De FX 5800 (ultra) heeft een 4x2 ontwerp ( 4 pipelines met elk 2 texture units )

Die 5600 heeft dan een 2x2 ontwerp ( 2 pipelines met elk 2 texture units )

die FX 5800 kan 8 pixels per clock uitvoeren onder de meeste omstandigheden. terwijl dit bij ATI's ontwerp altijd het geval is ( 8 pixels per clock ) en de 5600 zal in de meeste omstandigheden dan 4 pixels per clock uitvoeren
de GFX5800 doet alle operaties met 8 textures per clocktick (z-rendering, stencil, texture, shader) behalve color+Z rendering

zie ook http://www.tweakers.net/nieuws/25629
Jammer en eigenlijk ook wel raar dat nvidia besloten heeft om de chip op .15 te bakken en niet op .13, aangezien .13 chips toch wel wat koeler zijn en dit flink kan helpen in de mobile markt (en in de bespaarde ruimte hadden ze dan de kleuren- en z-compressie kunnen doen).
Dat is ook zoiets, waarom zou je in een mobiele chip waar de bandbreedte sowieso al stukken minder is dan bij de desktop variant juist hierop beknibbelen?
Wellicht omdat laptop gebruikers zowiezo niet genoeg power hebben om aan FSAA te denken?
mischien toch eersteen revieuw van de 'normale' GFFX 5200 en 5600 lezen? :?
http://www.tweakers.net/nieuws/25833
het enige verschillen met de desktopversies zijn de grootte en het energieverbruik.
Als nVidia bij de GFFX 5200 ook deze compressietechnieken zou meebakken, zou het verschil met de GFFX 5600 te klein worden.
Ze durfden het zeker niet aan met de 5800 in een laptop.
Bang dat mensen zich er nog aan zouden verbranden,
of dat de laptop op zou gaan stijgen door de grote koeler. }>
[commercial]Nu... nieuw van <voeg merk in>... de kampeernotebook!
in plaats van een keyboard zit er een metalen oppervlak. Wanneer u dan een extern keyboard en een muis aansluit kan u rustig gamen. Ondertussen wordt de plaat zo heet dat u er de kookpot op kan zetten.

Zeg dan nog eens dat koken niets voor een computerfreak is...[/commercial]

Even serieus... zo'n 5800 zou inderdaad wat veel warmte produceren, maar ook het energieverbruik zou wel eens kunnen tegenvallen. In 2D mode zal dit wel geen probleem zijn, maar op batterij waarschijnlijk wel. Tenzij ze het systeem zo maken dat die kaart alleen in 3D wil als de laptop op netstroom zit of zo. Ik denk ook eerder dat het afvoeren van de warmte gewoon het grootste probleem zou zijn...
Tadpole (oudere newspost) kan met hun cpu koeling voor laptops 60-70 watt afvoeren. Misschien moeten die eens met Nvidia gaan praten over de mobile FX 5800 Ultra :+
Wat ik ergerlijk vind aan dit soort dingen is, dat er op de laptop-valiant allerlei leuke features zitten die naar mijn ID ook wel op de desktop-variant mogen zitten.
Belangrijkste van die features is bijvoorbeeld de powermizer, die ervoor zorgt dat delen van de chip worden uitgeschakeld wanneer niet gebruikt. Gecombineert met een variabele fan-speed voor de gpu koeling zou dit ideaal zijn => geen herrie bij office/programmeren, wel bij gamen, wat 9 van de 10 keer toch gepaard gaat met aardig wat lawaai, dus dat zou geen punt zijn.
Zou me een WC setje besparen op m'n R9700Pro die op het moment naar mijn smaak meer herrie dan fps genereerd.
Ff reactie op typhon:
Tnx voor de info, heb een Radeon, dus ben niet in detail op de hoogte van de FX.
Ben ik nu een zeikerd wanneer ik WEL vind dat m'n Gigabyte R9700pro een hels kabaal produceert, mede door de niet variabele fanspeed? Of zijn er meer mensen die vinden dat een ding als een computer gewoon stil hoort te zijn, en een paar honderd euro gaan dokken voor stilte (wc) in hun werkkamer (wc zal wel moeten met een asus P4T533 => te weinig ruimte voor een passive heatsink |:( niet op gelet bij aanschaf |:( )
Wat jij nu zegt zit ook in de gewone FX behalve dat power-mizer. De clocks en fanspeed gaan omlaag tijdens 2d app's. Alleen dit is niet zo bij de radeon, hoewel de herrie daar ook niet zo'n probleem is.
[off topic maar nieuwsgierig] Hebben GPUs ook cache zoals CPU's dat hebben? En dan bedoel ik on die en niet ernaast zoals de p1 dat had...ik vroeg me dat af omdat ik er nooit iets over gehoord heb...[/off topic maar nieuwsgierig]

weer even ontopic, hoe zullen de prestaties zich verhouden met zijn desktop broertjes? Ik denk niet dat deze GPUs zo goedkoop zijn na al de R&D die Nvidia erin heeft gepompt, dus wat zou iemand met een GPU moeten die stervens duur is en bijna (statistisch gezien) alleen voor andere dingen dan games gebruikt wordt.....ik snap het niet helemaal, in een laptop hoeft iig van mij geen Grafisch monster te zitten.....maar goed dat is een mening...
Ja, gpu's hebben ook een vorm van caches, maar kleiner en die worden buffers genoemd.
Ze hebben er meer van op verschillende plaatsen, zorgt voor een betere spreiding van warmte-ontwikkelende delen van de core (een geheugen wordt namelijk niet zo heet als een rekenkundige unit)
gamen op een laptop wil echt wel met een usb-muis ofzo. Sommige mensen hebben gewoon liever een laptop als desktopvervanger en houden ook van een spelletje.
Genoeg spelen voorhanden die enkel de keys gebruiken hoor, en een mini muis is zo gekoppeld, tenzij je wilt unreal treinen, ....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True