Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Bron: ComputerBase, submitter: Mr_Groovy

De heren van het Duitse ComputerBase hebben tijdens het Intel Developers Forum gebruikgemaakt van een aantal onbewaakte ogenblikken om de GeForce 6600 GT Go te testen. De notebook bevatte behalve de videokaart een i915 Alviso-chipset, een 1,87GHz Dothan-processor en een 533MHz frontside bus. Deze opstelling werd getest met behulp van Doom 3, met de instellingen op “high quality”. Met een resolutie van 1024x768 pixels werd er een framerate van 33,7 frames per seconden bereikt. Een Mobility Radeon 9700 scoorde in dezelfde test met een 1,7 GHz Banias-processor een framerate van 19,7 beelden per seconden. Op Computerbase is er een overzicht te vinden van een aantal notebook-, AGP- en PCI-kaarten en hun scores, zodat ook bekeken kan worden hoe de 6600 GT Go scoort in vergelijking met zijn desktopbroertjes.

Close up GeForce 6 Go-chip
Moderatie-faq Wijzig weergave

Reacties (56)

De vergelijking tussen de Radeon mobility en GeForce Go kan je niet maken, omdat de benchmarks op volkomen verschillende systemen zijn uitgevoerd.
Hopelijk krijgen we in dit topic dus geen oeverloze Radeon vs. GeForce discussie :r

Wat wel cool is, dat notebook onderdelen steeds meer los leverbaar komen en het steeds interessanter wordt om op basis hiervan een stil en zuinig desktop systeem samen te stellen, zonder al teveel aan prestaties in te leveren :Y)
Wij hebben hier Dell optiplexen staan, desktop pc's met laptop onderdelen dus. Maar die halen het in geen velden of wegen bij de "echte" desktops met precies dezelfde specs. Dus ik denk dat je wel aardig wat aan prestatie inleverd.

Blijft toch bijzonder dat het nog op 33 FPS draait, goed gedaan van Nvidia.
Ja misschien gebeurt het op hele verschillende systemen maar de gebruikte processoren en chipsets kunnen niet zo'n grote invloed hebben. 19,7fps of 33,7fps dat scheelt 66%....

Wel jammer dat ze een nVidia optimized Doom 3 als benchmark gebruiken. Overigens een vergelijking met een ATI kaart van 2 jaar geleden vind ik eigenlijk niet zo veelzeggend meer...
Die mobility 9700 is geen 2 jaar oud hoor, dat is zijn desktop broertje...

Maargoed, wat ze in deze test wilden is een indicatie geven over hoe snel 33,6FPS wel niet is, want de mobility radeon 9700 was tot voor kort één van de snelste notebook GPU's op de markt...

Binnenkort zullen er vast betere, uitgebreidere, en minder scheve benchmarks worden uitgevoerd, maar dit geeft toch een leuke indicatie? nVidia doet het weer prima, niet alleen in het desktop segment, en die gezonde concurrentie is goed voor de martkt, dus goed voor de consument.
Er is ook al een Mobility Radeon 9800 hoor.
Die presteerde geloof ik een stuk beter dan zijn voorganger, Dus waarschijnlijk zijn beiden redelijk aan elkaar gewaagt.
Laat staan dat de 9700 Mobile nog baseerd is op R3** architectuur, en de 6600 GT Go op nieuwe generatie, eerlijker was geweest een vergelijking tussen de 9800 Mobile en de 6600 GT Go.
Nu nemen ze ook weer alleen Doom 3, waarvan iedereen weet dat ie sneller loopt op nVidia kaarten.

Ik had liever gezien dat ze het met Far Cry oid testen.
Desondanks wel een goede verbetering. Doom mag dan wel geoptimaliseerd zijn voor nVidia maar niet zo erg dat die 2x zo veel frames per seconde weergeeft... :)

Vind het een mooie vooruitgang op het 'betaalbare' notebook area ;)
De ATI 9800 mobility is even snel als een 9800 XT !!!! dus DE GF 6600 GO sux big ass vergelken met de ATI tegenhanger. Die ATI heeft namelijk 8 piplines en 4 vertex units evenveel als de 9800 XT. Verder zijn de clock speeds bijna gelijk. En maakt de 9800 mobility gebruik van de R420 core dus ook al die features zoal 3DTC. Dus deze heeft ook nog de potentie de 9800 XT in prestatie voorbij te gaan.
En Doom 3 is geen normale game? Worden op die engine de komende jaren niet wederom heel veel games gemaakt? Ik begrijp de heisa rondom de betere prestaties in Doom 3 niet.

nVidia heeft op basis van de techniek in Doom 3 een aantal zaken in haar chips opgenomen (schaduwtechniek, etc). Zo (of iets anders) optimaliseert ATI ook voor Half-life 2. Moeten we die benchmarks dan ook gelijk maar als niet relevant afdoen?

Natuurlijk moet je meer engines testen. Zoals bijvoorbeeld UT2004. Maar daar gaan de prestaties nagenoeg gelijk op. Zal hier ook wel zo zijn. Toch?
Mja, en omdat microsoft bij direct3d 9 meer rekening gehouden heeft met ati mogen er geen direct3d9 games meer gestest worden?
Doom3 is niet geoptimaliseerd voor nvidia, nvidia is als het om OpenGL support gaat gewoon altjd al beter geweest dan ati, en dat zie je terug in doom3 (maar ook in andere opengl games)
die kaart is voor doom 3 gemaakt, lijkt mij dat ze idd ook bij wat andere games moeten testen, kijken of die daar ook redelijk goed presteert.

zo weet je niet of die in het algemeen goed presteert
hoho de DX9 standaard was al bekend voor Nvidia zelfs maar begon aan hun FX5xxx kaarten.

verder heeft ATI nu een probleempje omdat dx9c shader model 3.0 vereist. en de extra features an shader model 2.0b mag ATI eigenlijk niet gebruiken als ze willen dat hun drivers microsoft gesertifiseert worden.
dat MS voor ATI is is dus kompleete onzin.
nVidia heeft op basis van de techniek in Doom 3 een aantal zaken in haar chips opgenomen (schaduwtechniek, etc). Zo (of iets anders) optimaliseert ATI ook voor Half-life 2. Moeten we die benchmarks dan ook gelijk maar als niet relevant afdoen?
ATI spendeerd niet 30% meer transistors in hun chips aan 1 game. Nvidia heeft dat in dit geval wel gedaan. hun 0x32 pipelines techniek werkt alleen in doom3 namelijk.
ATI heeft hun kaart niet gemaakt voor HL2 maar dat HL2 iets wat is geoptimalizeerd voor ATI sluit ik niet uit. maar dat is LANG zo verstrekkend niet als Nvidia hier doet voor doom3.
@kami
het grote probleem met DOOMIII is dat het veel gebruik maakt van een gepatenteerde techniek. ATi KAN/MAG dat dus niet gebruiken en moet een omweg vinden. dat ATi slechter presteerd in OpenGL is hun eigen schuld, dat Ati slecht presteerd in DOOMIII (die dus ondanks OpenGL door de gebruikte technieken verre van Open is), kunnen ze gedeeltelijk niet helpen en is eigenlijk de schuld van JC
fout .. doom3 is aangepast aan NVidia kaarten omdat de vorige generatie kaarten ( de FX serie ) ongelovelijk slecht presteerde. Door eigenlijk gebruik te maken van minder geavanceerde functies binnen b.v. de shaders (lookup tabel ipv een functie aanroep bijvoorbeeld) werd de prestatie acceptabel. Hierdoor werden de capaciteiten van de ATI (R300 en hoger, de R200 was er ook niet erg goed in evenals de FX) niet goed benut. Nvidia heeft tevens ook nog heel wat inside info gekregen van ID en is zo in staat geweest er solide drivers te schrijven voor doom3.

Al met al blijft imho doom3 een gevalletje 3dmark2001 ;) je kan geen eerlijke vergelijking meer maken. Wie weet wat mogelijke patches nog gaan doen vor de prestatie van ATi kaarten.

Neemt niet weg dat de huidige generatie (6x00) duidelijk beter is dan voorgaande.
Zo (of iets anders) optimaliseert ATI ook voor Half-life 2.
ATI betaald valve om HL2 optimaal op de radeon te laten draaien EN om te zeggen dat nvidia kutkaarten maakt en cheat en weetikveel wat allemaal voor negatieve dingen.

Vnd de nvidia manier toch wel wat netter op dit gebied.
als je niet verder leest idd, als je wel verder leest zie je dat de tegenstand wel erg oud is voor een eerlijk vergelijk :?
Ze hadden de notebook dan ook niet echt ter beschikking hé. Ze hebben snel een testje gevoerd om een eerste indruk te krijgen
En niet voor niets stond er doom3 op de laptop. De fabrikant kiest uiteraard het best case scenario om zijn laptop mee te showen.
Sommige mensen zijn echt kinderachtig zeg, ga je dood als ATi een keer niet wint ofzo?? :r

Het gaat erom dat dit een I N D R U K geeft van wat er op het moment sneller is, je gaat me niet vertellen dat de 6600 Go niet sneller is dan een MR9700. :z
@ mjtdevries
Man hou nou eens op met je eeuwige geflame naar nvidia toe. Je trekt alles werkelijk ver uit z'n verband. Er komen vast wel meer benchmarks uit waar andere games getest worden, het is gewoon een feit dat Ati achter loopt als het komt op openGL en er komen al andere games gebaseert op deze engine dus waarom zou deze test inrelevant zijn?
Als hl2 uitkomt zal het verhaal precies andersom zijn is dat dan wel terecht of telt dat dan ook niet?
@sjekneck
Als jij denkt dat ik flame naar Nvidia dan ben je gewoon slecht op de hoogte van de stand van zaken in de gpu markt.

Ja, Nvidia is altijd ietsje sneller geweest in OpenGL. Dat komt dan ook altijd naar voren in alle andere OpenGL benchmarks. Dat ontken ik niet.

Maar daarmee kan ieder objectief persoon ook inzien dat de zeer grote winst in Doom3 dus niet van OpenGL afkomt maar van specifiek code in Doom3. Waarom is dat nou zo moeilijk te begrijpen voor jou?

Als je dus weet dat Doom3 de grote uitzondering is, dan is een benchmark van een mobiele gpu met alleen die benchmark totaal nietszeggend, en zeker niet een aanleiding voor de grote vreugde van de Nvidia fans hier.

Maar als je de zaak nuanceert dan wordt je meteen beschuldigd van flamen. Ach ja..., zo gaat dat nou eenmaal op tweakers.
@nokko
De enige INDRUK die je kan krijgen is dat de 6600 Go sneller is in Doom3 dan de MR9700.

Maar een objectief iemand beseft dat Doom3 zo'n uitzondeingsgeval is dat je daar helemaal niets uit kan afleiden voor de prestaties in alle andere spellen.
Lees nou eens een keer man!

De Doom 3 Engine gaat voor meerdere games gebruikt worden, in ieder geval een groot deel.
Dat geeft dus een mooie indruk wat we in de toekomst kunnen verwachten...

Jees, is dat nou zo moeilijk :z

En ja, je bent wel aan het flamen naar nVidia toe, wat maakt het uit dat Doom 3 hier getest wordt?
Ik zie het probleem niet in, is Doom 3 geen game meer ofzo?
Dan mag HL2 ook niet meer getest worden hoor, Maar jij denkt daar natuurlijk anders over. :r

Conclusie: Jij wil gewoon dat ATi nu wint, simpel.
We wachten de test met HL2/Doom3/FarCry/3DMark tegen de MR9800 wel even af, dan kan je pas 'objectief' zijn...
Mag ik overigens vragen waarom er niet vergeleken wordt met de mobility radeon 9800? Lijkt me wat eerlijker want die is ook gebaseerd op de next gen.
Voor wat betreft de benchmarks van de fabrikanten: Houd er rekening mee dat die onder extreem aangename temperaturen plaatsvinden op de meest uitgebalanceerde en getweakte kasten die op hun beurt voltages leveren waar meneer Volt U tegen zegt. Dat doet ATI ook. Maar ik ben het ermee eens dat de test met Doom3 een beetje flauw overkomt.
Heeft iemand trouwens een idee van hoeveel warmte deze kaart genereert? [strike]Als ik namelijk naar dat plaatje kijk, dan krijg ik niet echt de behoefte om een notebook met deze kaart op m'n schoot te plaatsen(ook al zal het meer als desktop vervanger bedoeld zijn).[/strike]

@ Ferry Heibrink: :D

Dan maar een plaatje van de Go 6600:

pics.computerbase.de/news/8624/1.jpg

Blijf ik me nog steeds afvragen hoe warm hij wordt overigens.
Fotootje is van een desktop model....
De foto van de link van BaroZZa is weldegelijk van een notebook model. Het is namelijk gebaseerd op de nieuwe MXM specificatie waarbij je de videokaart van je laptop kunt verwisselen/upgraden.
Bericht van BaroZZA is aangepast. Eerste bericht sloeg op de afbeelding in de FP...

Verder houden we wel van je hoor :>
Knap als je de kaart op het plaatje in een laptop ziet :+

Een laptop gpu is aangepast voor mobiel te werken.
minder pipelines etc.
Wat een hysterische reacties weer dat de vergelijking scheef is. Kan je die Mobile 9700 niet gewoon zien als referentiekader? ;)
Wat ik zeer intessant vind is dat op die videokaart "taiwan eng sample " staat.

Zou dit kunnen beteken dat die kaart nog niet 100% is?

/edit
Trouwens bij mijn weten, nemen ze voor sample producten altijd het beste van de beste
Volgens mij kun je je notebook aanzetten Windows opstarten en dan valt ie weer uit omdat je accu weer moet worden opgeladen
Ik heb een AMD Mobile 2800+ met een mobility radeon 9200. Voor desktop werk kan ik een 2h uit men batterij persen, Met 3D games kan ik tussen de 45 en 60 minuten gaan.
Ja, maar een radeon 9200 is wel érg budget, en een 6600 schijnt dat toch niet te moeten zijn.
Het is offtopic maar ik verbaas me er elke keer weer over dat mijn laptop mij via een venstertje laat weten dat ik of de adapter moet aansluiten of mijn batterij moet wisselen om geen werk te verliezen.
PROBEER DAT EENS...
Je batterij wisselen als hij aanstaat... Ik hoop dat je je 80 pagina's verslag een keer ge-auto-saved hebt...
2 batterijen in laptop hebben, eentje vervangen, dan de ander vervangen...
Je bent sowieso dom als je je 80pagina verslag nog nooit gesaved hebt :+
Als het om een vergelijking van mobiele toepassingen gaat, kun je mijns inzien niet het verbruik buiten beschouwing laten.
Zijn hier ook gegevens over?
Laat er nou een review van een notebook met een mobility 9800 op [H]ardOcp staan:

www.hardocp.com/article.html?art=NjYxLDI=

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True