Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: Tech Report, submitter: Wouter Tinus

De mannen van Tech Report hebben de "GeForce4 MX440 met AGP8x" en de "GeForce4 Ti4200 met AGP8x" getest. Hoewel de naam suggereert dat AGP8x de enige vernieuwing is, heeft nVidia van de gelegenheid gebruik gemaakt om de kloksnelheid iets op te schroeven. De MX440 met AGP8x is niet bijster interessant. In feite is het nog steeds een opgefokte GeForce2 MX met DirectX 7.0 features, eigenlijk nauwelijks concurrentie voor de Radeon 9000, hoewel het feit dat het ding zonder koeler kan draaien interessant is voor mensen die van stilte houden. Interessanter is de nieuwe versie van de GeForce4 Ti4200. Draaide het geheugen van de originele 128MB-uitvoering nog op 444MHz, heeft de nieuwe versie 512MHz chips aan boord.

Hoeveel winst dit alles oplevert moet duidelijk worden uit een aantal benchmarks. Het testen gebeurt op twee Pentium 4 systemen op 2,53 en 2,8GHz, respectievelijk voorzien van SiS 648 en VIA P4X400 chipset. Zoals verwacht levert AGP8x geen enkele prestatiewinst op. De AGP-interface is al zolang een bottleneck dat zowel spellen als videokaarten er zo min mogelijk gebruik van maken door zo veel mogelijk te cachen in het videogeheugen. In sommige gevallen bleek AGP8x de prestaties zelfs te doen verminderen. Dit omdat AGP 3.0 geen transacties groter dan 64 bit ondersteunt, iets wat met AGP 2.0 (4x) wel mogelijk was. Verder valt er echter weinig te klagen:

However, the GeForce4 Ti 4200 with AGP 8X looks pretty good. I'm pleased to see the increase in memory speed and the corresponding jump in performance, especially in 128MB configurations. Also, the GeForce4 Ti GPU stands to take better advantage of AGP 8X at some point down the road. Assuming the price is no higher for the AGP 8X version of the GF4 Ti 4200, these are all welcome improvements. But will the Radeon 9500 spoil the party?

GeForce4 Ti4200 AGP8x reference board
Moderatie-faq Wijzig weergave

Reacties (37)

Tis dus de optimalisatie van het productie proces gebruiken voor nieuwe marketing (bij de TI4200 dan)
De gf4MX die passief gekoeld wordt is een aardige toevoeging, vandaag de dag zijn er weinig kaarten meer die nog passieve koeling met zich meedragen (behalve de TNT2 sjippies).

Ik denk dat men er beter aan had gedaan om nog even tewachten met deze kaarten reviewen, en deze vervolgens afzetten tegen de radeon tegenhangers, dit zou een beter beeld kunnen schetsen van kwalitatieve verschillen tussen beide chipfabrikanten, en al helemaal tussen de kaart producenten, door er nog een paar andere fabrikanten bij te halen.
De verwachtingen tussen beide partijen zijn imo niet concreet genoeg om mee te nemen in een review.


Dat agp 8x al niet veel zou oplossen was vantevoren al te verwachten (op basis van de geschiedenis dan) gezien agp 2x en 4x ook geen schokkend verschil opleverde.
In zoverre voldoet alles in het report aan de verwachtingen (he, weer geen spanning :P )

De informatie over agp op tech-report is een fijne toevoeging,
Biedt weer wat leesvoer en vormt een goeie toevoeging mbt het schetsen van een goed beeld van de agp poort. :)
radeon 9000 is er ook met passieve cooling :)
Dat agp 8x al niet veel zou oplossen was vantevoren al te verwachten (op basis van de geschiedenis dan) gezien agp 2x en 4x ook geen schokkend verschil opleverde.
In zoverre voldoet alles in het report aan de verwachtingen (he, weer geen spanning )
Ach het voltage verbruikt is maar 1.8V minder bij AGP 4x :Z
Maar je hebt wel gelijk dat er kwa snelheids winst zo goed als niet veranderd is.
Hmm leuk dat de geheugensnelheid van de Gf4 Ti4200 128 Mb ook naar 500 Mhz wordt gebracht

Hoewel dit in veel gevallen eigenlijk al mogelijk was , de ram chips op de kaart zijn vaak al geschikt voor 500 Mhz

Heel simpel om de Bios ff te flashen met nvflash en zo ook te kunnen profiteren van de hogere geheugen snelheid
:)
Sterker nog. De meeste ti4200 kaarten komen nu op de markt met 550 Mhz geheugen :D
jep.. maar of het helemaal standaard is :? ik weet dat Asus zoiets heeft gedaan.. een Ti4200 met 3.4ns geheugen geloof ik.. net iets sneller dan standaard op de Ti4400 zit.
Deze modellen zijn voor nVidia juist heel erg belangrijk, omdat het volumemodellen zijn. In de meeste HP, Compaq en Packard Bell computers zit namelijk een GF4MX en dan meestal nog de 440. De Ti4200 wordt heel vaak verkocht voor de goedkopere gamepc's van onder de 1500 euro, een populaire prijsklasse voor een pc.
Voor de feestdagen zijn deze twee modellen dus heel erg belangrijk. Belangijker dan de NV30 die in het begin heel weinig verkocht zal worden in vergelijking met deze kaarten, gewoon omdat hij veel te duur is.
Wat een teleurstellende resultaten in serious sam SE
de geforce 4 MX is beter dan de titanium

conclusie van de test: AGP 8x is enkel een verkoopsargument, geen performance verbetering
ach, het zal wel aan de software liggen...
Dat kun je nu nog wel zeggen maar wanneer er wat meer bandbreedte gevoelige kaarten komen (R350, NV30 :? ) dan zal dat wel anders worden.
Maar ik denk zelf pas merkbaar zou kunnen worden wanneer ze overstappen van 32bits naar 48 of misschien wel 64bits kleuren.
Maar ja tot die tijd lijkt mij persoonlijk AGP8x niet nodig.
nee hoor dan ook niet!
AGP 8x, 4x of 2x zie je alleen maar verschil in wanneer je geheugen op je videokaart vol zit met textures en dan het normale RAM geheugen gebruikt gaat worden... Ik denk dat nu nog de spellen een 32MB kaartje niet vol krijgen, laat staan 64MB. Kom je met je 128MB kaart aanzetten... Nee dan zie je geen verschil! Ik denk wel dat je verschil zou zien wanneer een 16MB kaartje 2x, 4x en 8x ondersteund, misschien een 32MB kaartje ook nog wel. 64MB al niet meer en dus een 128MB kaart al helemaal niet meer!!
Zodra je floating point textures gaat gebruiken, zit je meteen al aan 4x zoveel geheugen per texture.
Dus dat tikt lekker aan.
En vergeet het rendertarget zelf ook niet. Die is ook errug groot, zeker als FSAA gebruikt wordt, of dergelijke filtertechnieken.
ik denk niet dat de textures 128 bpp worden opgeslagen in je texture mem.. floating point kleuren hebben juist als voordeel dat ze veeeeeeeel kleinere (verwaarloosbare) afrondingsfouten vertonen na belichting / blending / etc.. een texture zal dan ook niet 128 bpp worden opgeslagen.. ze worden toch ook gewoon 24 bpp ontworpen ? dat zal echt niet veranderen hoor..
Envmaps worden wel degelijk als float opgeslagen, anders kun je niet eens die realistische belichting krijgen die je wilt bereiken (Je wilt meer intensiteit dan alleen 0-255 range).
Bumpmaps/displacement maps zijn trouwens ook interessante kandidaten voor floating point.
"The GF4 Ti 4200 cards are actually slower here because they are more capable."

lezen! hij heeft de extreme quality feature gebruikt, daardoor doet de Ti veel meer dan de MX
Ik vind dat ze ook alleen maar de nadruk leggen bij performance daar waar ik vind dat de belangrijkste feature van 8x (AGP 3.0) juist is dat je 2 AGP sloten kan hebben op je moederbord en dus 2 videokaarten. Dit wordt alleen nog zeer weinig gebruikt door de fabrikanten.
mischien wel raar,maar ik las het volgende: De MX440 met AGP8x is niet bijster interessant. In feite is het nog steeds een opgefokte GeForce2 MX met DirectX 7.0 features.
We zijn nu bij DirectX8.1,ondersteund een GeForce2 MX dit niet of gaat hij anders om met dit?
Je krijgt bij Bf1942 een 8.1bv.
Hoe zit dit in elkaar precies?? :?
mischien wel raar,maar ik las het volgende: De MX440 met AGP8x is niet bijster interessant. In feite is het nog steeds een opgefokte GeForce2 MX met DirectX 7.0 features.
Klopt! Een GeForce 4 Ti is volledig DirectX 8 compliant, maar een GeForce 4 MX niet. Dat er van de GeForce Ti4200 een nieuwe versie is gekomen, de AGP8X, heeft geen effect op de DirectX instellingen. Dat geldt ook voor de GeForce 4 MX; de AGP8X versie van de kaart heeft geen invloed op de DirectX compatibiliteit.

Zoals ik al zei, de GeForce 4 MX is niet volledig DirectX 8 compliant. Dit komt omdat deze kaart eigenlijk een doorontwikkelde GeForce 2 MX is. Op deze manier is de GeForce 4 MX, net als de GeForce 2 MX, DirectX 7 compliant.

Voor zover ik weet heb je voor Battlefield 1942 geen DirectX 8.1 nodig. Het spel is niet geheel gebaseerd op DirectX 8.1, zodat je het spel ook kan spelen met een oudere kaart. Sterker nog, je kan het zelfs spelen met een DirectX 6 compliant videokaart, zolang deze maar 32MB aan geheugen aan boord heeft.
Je kan het zelfs spelen met een DirectX 6 compliant videokaart....
Maar je moet wel Dx 8 geïnstalleerd hebben. BF1942 gebruikt features die niet in Dx 6 zitten. Als je Dx 8 hebt geïnstalleerd, en je gebruikt een Dx 6 compliant kaartje (TNT2 of zo), dan moeten veel dingen door de CPU gedaan worden, zoals pixelshaders, vertexshaders, bumpmapping.... De dingen die wel door zo'n oudere grafische kaart kunnen worden gedaan, gaan traag, omdat de kaart niet genoeg rekensnelheid heeft voor de gebruikte textures.

(Vergelijk: Neverwinter Nights heeft een minimumvereiste van een TNT M64 met 16 MB geheugen, maar moet wel Dx 8 hebben. Ik speelde het spel goed op een GF2 Ti, en nu op een Ti-4600. Ik heb het een keer zien kruipen op een GF1 32 MB DDR. Op een TNT2 is het waarschijnlijk een diashow waarbij je de graphics getekend ziet worden...)
dan moeten veel dingen door de CPU gedaan worden, zoals pixelshaders, vertexshaders, bumpmapping....
Pixelshaders of bumpmapping kan niet door de CPU geemuleerd worden. Dit kan alleen via volledige software rasterization gedaan worden, en dat is niet snel te krijgen.
Op oudere kaarten zullen deze features gewoon uitgezet worden, of zullen ze vervangen worden door een DX6/7 techniek die ongeveer hetzelfde resultaat heeft.
Sterker nog, ik krijg Dx8 niet werkend icm mijn Voodoo 3000 @ Win2K, wat betekent dat spellen die Dx8 MOETEN hebben (C&C Renegade bijvoorbeeld) echt niet speelbaar draaien :( (gelukkig heb ik nog een GF2-mx ook, maar zie ik het probleem van de DX-en).
ik krijg Dx8 niet werkend icm mijn Voodoo 3000
Een Voodoo is ook sterk verouderd, en mist teveel functies om DX8 behoorlijk te ondersteunen.
Zoals ik al zei, de GeForce 4 MX is niet volledig DirectX 8 compliant. Dit komt omdat deze kaart eigenlijk een doorontwikkelde GeForce 2 MX is.
De GF4mx (nv17 core) is niet zozeer een doorontwikkeling van de GF2mx, maar van de 'gewone' GF2-serie. Het is dus een voortborduursel op de nv15, de GF2GTS, -Pro, -Ti en - Ultra dus.
DirectX 8.0 en 8.1 hebben support voor pixel/vertexshaders.
Een GF4MX heeft dit niet, en ondersteunt daarom alleen DX7 features.
Hij kan wel DX8 software draaien, alleen kan hij pixelshaders uberhaupt niet ondersteunen, en moeten vertexshaders op de CPU geemuleerd worden.
Het testen gebeurt op twee Pentium 4 systemen op 2,53 en 2,8GHz, respectievelijk voorzien van SiS 648 en VIA KT400 chipset
Pentium IV op KT400-mobo :?...
Op de site staat een VIA P4PB 400
Beetje vreemde tikfout :P
Waar is nVidia eigenlijk mee bezig? Na die geweld van ATI komen ze nog met zulke zielige kaarten aanzetten. Wordt het niet tijd voor NV30 en verder! Ik hoop dat ze ATI een beetje bij kunnen houden, want anders staat de vooruitgang op spel. (lees:de tempo van vooruitgang ;))

Ik kan haast niet meer wachten op (nog) nieuwere kaarten. :9
Buh... NVidia is bezig met hetzelfde als wat ze al jaren doen: zo goed mogelijke produkten in de markt zetten... Soms zit het mee, soms zit het tegen... Dat der dan steeds weer een heel stel mensen dit soort opmerkingen geven is echt vermoeiend.
Wees gerust, der zal niet zo'n MEGA verschil zitten tussen de NVidia en ATI kaarten de komende paar jaar, dan zal de één sneller zijn, dan de ander.
Het tempo hoeft wat mij betreft echt niet omhoog, mag zelfs een heel stuk rustiger aan... Om te beginnen is dat beter voor de industrie, aangezien ze dan meer tijd hebben om hun investeringen terug te verdienen en ten tweede is het aangenamer voor mij (en vele anderen veronderstel ik) omdat we niet constant het gevoel hebben dat we, een week na het nieuwste van't nieuwste te hebben aangeschaft, wéér beginnen achter de feiten aan te lopen.
Wie helpt mij even, is direct X niet backwards compatible ofzo? waarom melden ze direct X 7 als we nu al bijna op 9 zitten? Is het dus zo dat je met direct X 7 betere prestaties krijgt dan met 9 ? die indruk krijg ik namelijk. Alvast bedankt ;-) Ohw en ik las dat direct X 8.1 b.v. die shaders ondersteund terweil ze er niet zijn. is dit de enige oorzaak dat 7 beter werkt dan 8.1 (b.v.)
Tuurlijk is DirectX wel backwards compatible...
Wat je moet begrijpen is de term 'compliance'. Een videokaart met (bv.) DirectX 8 compliance ondersteunt/maakt gebruik van de functies van DirectX 8. Of anders gezegd: een op DirectX 8 gebaseerd spel kan alle features (pixelshaders en al die troep) weergeven omdat deze hardwarematig aanwezig zijn op de videokaart.

Die GF4 MX440 8X AGP is gebaseerd op de NV15 core, die dus op de GF2 zat, en de GF2 is DirectX 7 compliant. Daarom is deze nieuwe GF4 MX440 dus ook DirectX 7 compliant. Niet omdat DirectX 7 beter/sneller zou zijn oid. :D

Het kan trouwens best dat DirectX bepaalde functies heeft die nog geen videokaart aan boord heeft. Bij DirectX 8.1 zal dat echter niet het geval zijn, aangezien er al DirectX 8.1 én 9 videokaarten zijn (Radeon 9700). Spellenmakers zullen echter geen games uitbrengen als er nog geen videokaart is waarmee het gespeeld kan worden.
dat zijn nog eens kleiner koelers !!!

geen wonder dat ze zonder fan kunnen werken :)
uitsterst interresant voor een klein stil systeem, aangezien DX 7.0 features niet echt interesant zijn nu 9.0 er aan zit te komen. Waarschijnlijk handig voor een mp3/dvd/divx bak .... angezien er ook een tv-out op zit.....

de heatsink op mijn TNT 2 heeft misschien zelfs meer oppervlakte :) :*)
zo worden zeker gewone consumenten wijsgemaakt dat de snelheidswinst door de AGP 8x komt en dus moeten ze een agp8x comp. mobootje kopen..
ZIj zullen immers niet weten dat de AGP8x versie veel hoger geklokt is dan normaal

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True