Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: Hexus, submitter: silentsnow

Bij Hexus vond men dat het tijd werd eens twee veelgebruikte grafische kaarten in laptops te vergelijken. De Radeon Mobility 9600 en de GeForce FX Go5700 werden dan ook naast elkaar gelegd. De specificaties zijn bijna identiek met een kloksnelheid van 350MHz, 400MHz DDR-geheugen, een 128-bit geheugenbus en 6,4GB/s bandbreedte naar het geheugen. De Radeon beschikt over een M10-GPU die afgeleid is van de RV350, de core die gebruikt wordt voor de Radeon 9600 Pro. De GeForce is uitgerust met een NV36-chip. Voor het testen werd gebruikgemaakt van een Alienware Area51-m Extreme met een Pentium 4 3.2 EE en 1GB DDR400 RAM-geheugen. De gebruikte driverversies zijn voor de GeForce de nVidia ForceWare 56.56 en in de testen met de ATi-kaart de ATi Catalyst 4.4-drivers.

Radeon Mobility 9600De eerste test bestaat uit het uitproberen van de mogelijkheden met betrekking tot anistropic filtering, waarbij de nVidia-kaart geen 16x anistropic filtering aankan in tegenstelling tot de Radeon. Vervolgens bekijkt men de kwaliteit van de antialiasingkwaliteiten en hier neemt de GeForce op papier de overhand, met 8x antialiasing in tegenstelling tot 6x bij de Radeon. In de praktijk blijkt uit een ingezoomde screenshot van het spel Serious Sam echter dat er tussen 4x en 8x niet zo'n duidelijk verschil zichtbaar is bij de kaart uit de nVidia-stal.

4x Anistropic filtering Radeon (klein)4x Anistropic filtering GeForce (klein)
4x Anistropic Filtering | Links: Radeon Mobility 9600 | Rechts GeForce FX Go5700 | Klik voor grotere versie

Vervolgens worden met behulp van UT2003 de prestaties gemeten met verschillende instellingen. Op deze grafiek is merkbaar dat de kaarten beiden vergelijkbaar zwakker gaan presteren naarmate de instellingen zwaarder worden, tot op het punt waar de nVidia plots een steek laat vallen en richting kelder schiet. Tot op dat moment presteerde hij wel steeds iets beter dan de Radeon. Alhoewel het in de praktijk niet zo erg gesteld is met de beeldkwaliteit, schiet de GeForce op papier heel wat te kort in de particle shader-test waar hij amper half zo goed presteert als de MR9600-chip. In de D3D-benchmark scoort de nVidia-GPU dan weer iets beter dan de Radeon, vooral wat betreft de fillrates, wat zich in games vertaalt in een degelijke beeldkwaliteit. Als laatste test wordt er gecontroleerd welk effect de energiebesparende modi van beide kaarten hebben, iets wat in beide gevallen gelijklopend blijkt te zijn met een twintigtal minuten tijdswinst voor de batterij leeg is.

nVidia NV36In een samenvatting besluit de reviewer dat beide kaarten sterke prestaties neerzetten, maar dat de nVidia de MR9600 toch steeds wist te overtreffen. Daarbij moet wel opgemerkt worden dat de Radeon-kaart ook zes maanden eerder uitgebracht werd dan de GeForce en dat de MR9700 de kloof weet te overbruggen. Wie nu een laptop met een MR9600-, MR9700- of GeForce Go5700-chip aanschaft mag een zeer degelijke beeldkwaliteit en uitstekende prestaties verwachten.

Moderatie-faq Wijzig weergave

Reacties (46)

Dan test je kaarten voor een notebook en gebruik je een Pentium 4 3.2 EE, wat klopt hier niet...

Verder heb ik zelf een ati M 9600 in mijn notebook zitten en kan zeggen dat hij inderdaad prima bevalt. Games draaien soepel (al gebruikt hij dan meestal niet mijn hele scherm van 1400*1050 omdat ik stretching uit heb staan) en de kleuren vind ik echt goed (maar dat kan ook aan het scherm liggen).
Dan is de cpu iig niet de bottleneck, dus kan je de verschillen in snelheid van de kaarten beter vergelijken.
wat ik me dan afvraag is.. zijn deze grafische kaarten beide dan modulair? dat je zowel een radeon als een Gf kan kiezen... en als dat zo is wat voor soort bridge gebruiken ze dan intern dat je er zeker van kan zijn dat de PIV 3.2 niet een bottleneck is.
en als deze modulair is.. betekent het dan dat je met gemak toekomstige grafische kaarten erin kan prikken. en betekent het dat in tegenstelling dat wat een tijdje terug werd gepost dat beide merken toch voor een overeenkomstige bus kiezen?
Van de nVidia weet ik het niet, maar ATi "adverteerd" op zijn site dat mobo's die zijn ontwikkeld voor 9600's ook geschikt zijn voor 9700's. Ik denk dat dit inhoud dat ze tot op zekere hoogte modulair zijn. Het is wat anders of je als consument zijnde ook daadwerkelijk (zoals je stelt) "met gemak toekomstige grafische kaarten erin kan prikken".
Inderdaad een beter vergelijk als je alleen naar de GPU's wilt kijken en bovendien zijn er inmiddels wel wat notebooks te krijgen met die p4 3.2 EE of zelfs de p4 3.4EE. Maar als ik kijk hoe hard een 'gewone' 3.2 mijn batterijen al leeg zuigt zal het met deze helemaal hard gaan! Nog even los van de bijdrage als centrale verwarmings eenheid. Draai overigens met een ATI M 9700 en ben erg benieuwd hoe deze het doet tov die GeForce.
Toch verrassende resultaten, bij een vergelijking van de Ati 9600 met een Geforce FX Go5650 kwam de Geforce niet eens in de buurt van de ATI. De verschillen waren echt schokkend groot.
http://www.anandtech.com/mobile/showdoc.html?i=1866
Kennlijk heeft Nvidia hiervan geleerd en een enorme inhaalslag gepleegd.

In dit topic ging iedereen, including me, ervan uit dat de Ati een stuk sneller zou zijn:
http://gathering.tweakers.net/forum/list_messages/918637

Maar wat ik dan wel jammer vind is dat niet de twee topmodellen zijn vergeleken. Dus de 9700 met de Geforce. Want de 9700 is niet gigantisch veel sneller dan de 9600, maar het scheelt toch wel weer een beetje. Ze zeggen het zelf ook "ATI's MR9700 part closes the gap", kennelijk hebben ze dus getest anders kunnen ze dat niet zeggen. Maar laat die resultaten dan zien!

Verder hadden ze ook wel wat mogen doen met het verbruik in de praktijk. Daar we het hebben over mobiele chips is het wel interessant om te weten of ze ook echt geschikt zijn voor mobiel gebruik.
Wat ik heel erg mis is het energieverbruik. Dat bepaalt mede de accuduur. Bij de vorige (5600) scheelde dat heel erg veel, werd gefluisterd door OEM's. Kijk, leuk dat die energiebesparing 20 min scheelt, maar heo verhouden de 2 kaarten zich?
Met P4 3.2 Emergency Edition zal je niet ver lopen op een accu...

Ik kan dit niet echt bewijzen, maar de acer 17XX serie die een desktop 3.0 en 3.2 cpu heeft haalt maar maximum 1h 30 op een batterij. Ik denk dat deze Alienware's het nog slechter doen. Zeker als je gaat gamen, maar da was ook het punt van deze test...
Heel content dat in mijn laptop een 9600m zit :)
Had wel graag ook eens een vergelijk gezien tussen mobility gpu's en grafische kaarten die gebruikt worden in een gewone desktop.

De 9600m is afgeleid van de 9600pro (volgens het artikel), maar hoe verhouden die 2 kaarten zich dan onderling?
Jammer dat die twee screenshots niet vanuit dezelfde positie genomen zijn, het blauwe gedeelte op de muur bij de Geforce vind ik nogal lelijk terwijl dit bij de Radeon vanwege de afstand wat minder goed te controleren is.
de positie is absoluut zeker wel identiek. De kleuren zijn anders, maar dat komt door verschil in de kaarten. Maar het screenshot is vanaf dezelfde postitie genomen.
Ze zijn wel van dezelfde positie genomen, alleen is de lichtinval verplaatst.
Dee bestrating lijkt bij de GeForce Go5700 veel schever te lopen, maar dat komt inderdaad doordat er een andere lichtinval is. Dat is jammer, voor een goede vergelijking van de beeldkwaliteit.

Verder wel ok dat ook op het mobile platform word gewerkt aan goede grafische prestaties. Dit omdat steeds meer mensen een laptop gaan gebruiken als hoofdcomputer, en deze laptop met zijn Pentium 4EE is daar een goed voorbeeld van.

Toch jammer dat de besparende maatregelen maar twintig minten tijdswinst opleveren. Mischien dat het ook wel een idee is om naast supersnelle mobile grafische kaarten ook superzuinige te maken, alhoewel je ook gewoon het onboard spul van de chipset kan gebruiken. Dat is voor de rijzende zakenman meer dan zat.
Er zitten al een heleboel energiebesparende maatregelen in die GPUs en de ATI gpu zelf is ook al ontzettend zuinig.
Alleen worden die extra maatregelen meestal niet geactiveerd door de hardware leverencier.
Waarom is mij een raadsel, maar het energieverbruik kan in de meeste notebooks een stuk lager gemaakt worden met bestaande functionaliteit dan nu het geval is.
De lichtinval is in beide plaatsen identiek. Beide plaatjes zijn op hetzelfde moment op dezelfde positie genomen.

De kleurige banden die je ziet geven de mipmap levels aan: van duidelijk naar wazig: groen - blauw - rood.

De ATI kaart begint veel verder dan de NVidia kaart met het gebruiken van minder heldere textures (de gekleurde balken staan verder weg) wat dus aangeeft dat de beeldkwaliteit van de ATI kaart beter is. De overgangen tussen de verschillende lagen zijn ook een stuk vloeiender.

Deze test geeft een heel duidelijk beeld over de beeldkwaliteit van beide kaarten.
Mwa volgens mij zijn beide screens toch best vanuit hetzelfde standpunt genomen hoor :?
k Ben zelf trouwens meer benieuwd naar die nieuwe verwisselbare videokaarten voor je laptop :)
Me 2!

Is er al bekend wanneer die verwisselbare kaarten komen? Ik sta namelijk op het punt om een nieuwe Notebook aan te schaffen, maar voor die verwisselbare videokaart wil ik nog wel ffies w8en :9~
Dan zou ik maar even wachten met de aanschaf, want deze kaarten zullen niet goedkoop zijn en zal het ook nog enkele maanden duren eer deze de markt zullen bezoeken :Y)
Nogal onnozele reviewers als ze denken dat NV3x 8xAA beter zou zijn dan ATI's 6x AA.
De hele wereld weet dan tussen deze twee series kaarten ATI's AA veel beter is. Tot het niveau dat je ATI's 2x AA af moet zetten tegen NVidia's 4xAA, en de 6xAA tegen een theoretische 12x AA van NVidia....

En die AF plaatjes laten perfect zien waar de prestatie winst van Nvidia zit. Niet alleen is de mipmapping verschoven, maar er zit ook een hele zware brilineaire filtering op de NVidia variant. Het is bijna compleet bilineair! Dat is dus absoluut niet te vergelijken met de trilenaire filtering van de ATI.

De NVidia LIJKT dus sneller dan de ATI, maar doet dat alleen door enorm veel op de beeldkwaliteit in te leveren. Appels met peren vergelijking dus. Zet de IQ gelijk, en we krijgen de resultaten die we enige tijd geleden zagen, waar de Mobilty 9600 de G05700 de grond in stampte...
maar er zit ook een hele zware brilineaire filtering op de NVidia variant. Het is bijna compleet bilineair! Dat is dus absoluut niet te vergelijken met de trilenaire filtering van de ATI.
Da's niet waar, ook in het screenshot van NVidia is overduidelijk trilinear filtering gebruikt. Het enige verschil is dat het gebied waar een mipmap overgaat (met lineare interpolatie dus) naar de volgende bij Ati iets breder is, maar ik vind het maar de vraag of dat de beeldkwaliteit bevordert.

In ieder geval zit er ook bij NVidia overduidelijk een lineaire overgang. Dus wel degelijk trilinear.
Jij hebt duidelijk geen flauw wat trilineaire filtering is !!!

Trilineaire filtering is namelijk een volkomen continue overgang van mipmap levels. Dus zonder dat je enige grens kunt zien tussen mipmap levels.

Dat je bij de NVidia kaart een gebied ziet zonder interpolatie, en een gebied met interpolatie betekent dus per definitie dat er geen trilineaire filtering wordt toegepast. Deze mengselmoes wordt meestal brilineair genoemd door de in-siders.

Op een stilstaand beeld is dit effect niet altijd erg zichtbaar, maar juist op een bewegend beeld is je oog verschrikkelijk goed in staat zo'n grens te detecteren. Een grens tussen texture scherpte, die om 1 plek blijft, terwijl de texture eronder door beweegt. Is dus wel degelijk zeer van belang voor de beeldkwaliteit.

Brilineair wordt op verscheidene sterktes gebruikt door NVidia. Wat je in de screenshots ziet is een van de meest agressieve varianten, met zeer grote bilineaire delen, en smalle overgangen. Heeft de grootste prestatie winst t.o.v. trilineair, maar ook de slechtste beeldkwaliteit.
Zoals vorige week op hier op T.net staat ooki duidelijk dat ati's 9600 serie ook een combi tussen bi en trilineare filtering. zullen we het maar gewoon erop houden dat deze 2 producten zeer aan elkaar gewaagd zijn :)
jammer dat ze niet naar prijs/prestatie kijken.

maarja dat schijnt normaal te zijn.
ze doen het bij gewone kaarten ook al niet
en als ze dat wel zouden doen kom je toch echt bij nvidia uit omdat die kaarten simpelweg goedkoper zijn
I.d.d. wordt hier niet echt naar gekeken.

Net als dat je in autobladen toch ook erg vaak autotests tegenkomt waar 99.992% van de lezers nooit en te nimmer in zullen kunnen rijden, leuk voor de reviewers/testers, maar praktisch gezien overbodig voor de lezers.

Hierbij is het precies hetzelfde, we nemen extreem dure laptops waar maar een happy few mee zullen gaan werken, we hebben een paar dagen/weekje lol gehad en laten onze lezers kwijlen op de speeds die we nu halen. Tevens is het imho een beetje onzinnig een 'gaming' laptop te maken, sleep liever mijn bigtower naar een LANparty dan een peperdure laptop die je continue bij je moet hebben omdat deze zo makkelijk te stelen is .... nee dan maar de kilo's zware jongen .....
Ik moet zeggen dat ik de Radeon een veel mooier kleurverloop vind hebben dan de Geforce op die twee plaatjes. Mij is alleen niet duidelijk of dat komt door 16x anisotropisch filter van de Radeon, het is in de tekst niet helemaal duidelijk of dat in de screenshots aan staat.

Edit: ik moet leren lezen |:( ik dacht dat er anti-aliasing stond |:(
Op zich een leuke test, maar wel een beetje uit de tijd.
Zoals in de tekst ook al opgemerkt zijn inmiddels de MOBILITY RADEON 9600pro en 9700 uit (fills the gap) maar komt ook binnenkort de MOBILITY RADEON X600 www.ati.com/products/mobilityradeonx600/specs.html uit.
Ik ben dan ook van mening dat ATi voorop blijft liggen als het gaat om mobile GPU's.
Ja idd...ATI is sinds de 9700 goed bezig. ATI heeft sindsdien een goede voorsprong op nVidia!
Beetje raar dat ze Serious Sam 2 als uitgangspunt gebruiken... das toch een oud spel alweer. Bovendien, lekker boeiend, de kwaliteit. In SS moet je gewoon alles afknallen wat beweegt en niet beweegt.

Ik zie zo snel ook geen vergelijk in stroomverbruik... maargoed, mensen die diee P4 3.2 in een laptop zetten zal dat ook niet zo boeien.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True