nVidia GeForce4 Ti 4200 review

Bij Tom's Hardware is een review verschenen over de GeForce4 Ti 4200. Zoals bekend zijn er twee versies van de Ti 4200; één versie met 64MB geheugen dat op 500MHz loopt en een variant met 128MB geheugen dat werkt op 444MHz. Het sterkste punt van de kaarten is het prijskaartje. De adviesprijs van de 64MB GeForce4 Ti 4200 is slechts 179 dollar wat gelijk is aan de prijs van de GeForce4 MX 460. Maar in tegenstelling tot de MX 460 is de Ti 4200 volledig DirectX 8 compatible. Tel daarbij op dat de kaart ongeveer dubbel zo snel is en het moge duidelijk zijn waarom de reviewer uitermate positief over de kaart is:

With the GeForce4 Ti4200, NVIDIA has thrown the gauntlet at the feet of the competition. For $199, consumers will get a card that is second only to the other members of the GeForce4 Ti line. It leaves both, the more expensive GeForce3 Ti500 and the ATi 8500, in the dust. When using FSAA, the card can even extend this lead. Finally, the card seems to offer great overclocking capabilities - at least our review sample did.

[...] ATi is not just sitting on their collective thumbs, though. The next generation of cards is already being prepared for launch. As always, the video card arena remains an exciting arena. With its GeForce4 Ti4200, NVIDIA currently has the most attractive offer on the shelves, by far.
nVidia GeForce4 Ti 4200

Door Hielko van der Hoorn

10-04-2002 • 09:48

63

Bron: Tom's Hardware Guide

Reacties (63)

63
63
43
8
1
0
Wijzig sortering
Anoniem: 20571 10 april 2002 09:53
Hmmm ziet er wel leuk uit...
Geen cooling op het geheugen alleen.
Maar ik denk wel dat deze kaart aardig zal verkopen (mede dankzij de prijs)

Maar wat ik me toch steeds afvraag, wat is die witte aansluiting en wat kan je ermee ?
Ik heb die op kaarten hier in NL nog nooit gezien namelijk.
Inderdaad DVI: een digitale uitgang voor TFT-panels.
Die werken namelijk ook helemaal digitaal, en het zou een beetje onzin zijn om het digitale videosignaal van de videokaart via een analoge output (de normale D-sub aansluiting) naar een digitale monitor te sturen (onnodige omzetting = kans op kwaliteitsverlies)

Die aansluitingen vind je al een jaartje op vrijwel elke high-end videokaart trouwens :)
geweldig, geen koeling op het geheugen, zelf toevoegen en hij kan hoger!

men neme een aantal RAM heatsinkjes (bij de betere shop te krijgen)
men neme een 80mm fan en maken deze handig vast op PCI slot boven kaart.. en men koelen :)

heeft de 64MB versie nou ook geen chipjes op de achterkant??
heeft de 64MB versie nou ook geen chipjes op de achterkant??
Dat is natuurlijk moeilijk van te voren te vertellen. Dat verschilt per fabrikant. Misschien doet Leadtek ze er wel op en Asus niet. Dat is altijd afwachten...
Tegenwoordig verschilt dat niet meer per fabrikant. 'Vroeger' kocht de fabrikant namelijk zelf haar geheugen voor de kaart, dus was het afhankelijk van de capaciteit van de chips of er voor of voor én achter chips zaten. (4x128 Mbit = 64 MB én 8x64 Mbit = 64 MB). Nu levert nVidia (vanaf de GF3's) het geheugen én de GPU. Ieder fabrikant krijgt dus in principe dezelfde chips.
ik verwacht eigenlijk van niet, dan hoeft het bord namelijk maar aan 1 kant gesoldeerd te worden en dat scheelt weer in de kosten. wordt toch budget kaart
Maar wanneer wordt dit dingetje eigenlijk leverbaar?
dit is al de 2e review en ik vind em echt mooi, maar hij staat bijv nog niet in pricewatch hier op tweakers :r :'(
Het is nog maar net bekend dat deze kaart er aan komt, dus het duurt effe voordat merken als Gainward, Leadtek hier goed mee aan de slag kunnen. Maar deze kaart wordt geheid een hint (qua prijs en prestaties).
Maar wanneer wordt dit dingetje eigenlijk leverbaar?
Over de leverbaarheid heeft destijds een artikel gestaan: Als nVidia en de videokaartbakkers dor hun GF3 Ti500's heen zijn.
Ja, dat is idd DVI. Maar er zijn heel veel kaarten op de markt met DVI aansluiting, ook in Nederland. Dus zo nieuw is dat niet.

Zelf vind ik het een beetje overbodig, je moet een behoorlijk prijzige monitor hebben om het verschil tussen een VGA en een DVI aansluiting te kunnen zien.
Mag ik je effe wijzen op het feit dat dit BS is?
Je hoeft helemaal geen dure monitor te hebben om die connector te gebruiken... bij elke kaart wordt normaalgezien nl een DVI->VGA convertorstuk bijgeleverd, omdat de GeForce 4 nu van nature uit 2 schermen tegelijk kan aansturen. Dus gewoon dit stukje ertussen en hop, je hebt een 2e aansluiting voor een gewoon scherm. De 4 reeks werkt prachtig trouwens, zo kan ik zeggen uit persoonlijke ervaring..
(* 786562 Blizzy
Hmmm ziet er wel leuk uit...
Geen cooling op het geheugen alleen.
Maar ik denk wel dat deze kaart aardig zal verkopen (mede dankzij de prijs)
en die prijs wordt mede bereikt door goedkope koeling, als er wel ram heatsinks op zitten was ie weer duurder
idd, dvi. word veel op tft panels gebruikt.
geloof dat je dan niet eerst door een berg signaal filters hoeft waardoor je dus betere beeld kwaliteit krijgt :)
Anoniem: 46371 @sharkzor10 april 2002 10:15
computer = digitaal
CRT moitor = analoog

Dus normaalgesproken wordt het digitale signaal in een analoog signaal omgezet, maar omdat

TFT = digitaal

hoeft dat voor een TFT niet. Als je dan dus de VGA-aansluiting zou gebruiken zou je het signaaleerst van digitaal naar analoog worden omgezet om vervolgens weer van analoog naar digtaal te worden omgezet. Hierbij treed natuurlijk kwaliteitsverlies op.
Vandaar: DVI!
UHm... niet alleen TFT's hebben DVI.. denk aan de IIYama 19"HM903HT. Heeft ook een DVI aansluiting.. enorm kewlio...
Dan wordt het dus een kwestie van uitzoeken welke van de twee de beste D/A convertor heeft :)
Ben ik nou gek?
Waarom is de 64MB versie goedkoper en vooral SNELLER dan de 128MB versie? Ja okee, hij heb een lagere geheugensnelheid..... Maar dan laat je de 128MB versie toch meteen in de winkel liggen? Is dat een verkooptruc ofzo.....
Verkooptruc? Ongetwijfeld. Hoewel 128 Mb zinvol kan zijn bij grote textures (voor bijv. de Codecreatures benchmark http://www.tweakers.net/meuktracker/1932) is er voor zover ik weet nog geen spel dat er iets aan heeft.

128 Mb is alleen weer duurder dan 64 Mb, dus moet het geheugen langzamer zijn om geld te besparen. Vooralsnog lijkt de 64 Mb-versie mij veruit de betere keuze :)
Anoniem: 19930 @Jodi10 april 2002 10:33
"Ik heb een GeForce 4!" versus "Ik heb een GeForce 4 met 128 MB geheugen!"- ruzies op het schoolplein. Lijkt mij de enige verklaring.
De brag-factor.(lucratief)
Helaas is de kaart alleen DX 8.1. Ik wacht gewoon op de kaarten die DX9 zullen zijn. Zeker met de komst van de nieuwe games die wel DX9 zijn zie ik op dit moment niet echt het nut in van de upgrade naar deze kaart.

Mijn Geforce 2 TI doet ook nog steeds zijn best!
Zelfs al is DX9 er, dan zullen de meeste spellen alsnog voor 8.1 gebouwd worden. John Carmack (whats his name) gaf in een recent interview aan dat game developers erg traag zijn met het gaan ondersteunen van nieuwe directx versies.

Dan geldt ook nog, na directx9 komt directx10 dus je kan tegen de tijd dat er directx 9 is en directx9 kaarten zijn eigenlijk wel nog effe wachten want wie weet komt directx10 er al aan en dan wil je toch een kaart die dat ondersteundt.

UT2003, RTCW, MOHAA, Unreal 2 en eventueel Quake 4 ondersteunen allemaal geen directx9 maar geheid dat je die wilt spelen. En als directx9 er is, dan duurt het nog even voor er directx9 kaarten zijn, en dan daarna duurt het nog even voordat er directx9 games komen en tegen die tijd, dan is directx10 mischien al weer uit.
Aangezien DX 9.1 dit najaar uitkomt is deze kaart eigenlijks alleen leuk voor mensen die het nieuwste van het nieuwste willen (Maar die gaan voor een 4600) Voor de andere mensen zou ik toch echt aanraden om te wachten totdat de nieuwe lichting kaarten er komt (lees NV30 en de R300).
Zouden Ati en nVidia een soortgelijke oorlog inzetten als Intel en AMD? Ze zijn in ieder geval goed op weg.
ouden Ati en nVidia een soortgelijke oorlog inzetten als Intel en AMD?
Je moet wel bijna van deze wereld zijn weggeweest, als je niet weet dat Ati en Nvidia in een groot gevecht zijn verwikkeld in de consumentenmarkt. En wat bedoel je met?
Ze zijn in ieder geval goed op weg.
In het gevecht of in het bouwen van snelle gpu's?
zonder oorlog geen vooruitgang, gelukkig is er altijd wel een fabrikant die ander mans inkomsten wil inpikken.
gezonde concurentie heet dat en is alleen maar goed voor de consument.
al denk ik soms bij geheugen prijzen dat het net iets te ver gaat.
TE goedkoop krijgt te consument vroeg of laat ook te merken
Anoniem: 20780 10 april 2002 10:35
Ik lees niets over de overclockbaarheid van deze GF4 4200. Mijn ervaring is dat een beetje redelijke geforce kaart toch wel met 10% te oveclocken is. Als dit mogelijk is kom je aardig in de buurt van de 4600. Vreemd genoeg worden in de reviews van dit moment geen overclock resultaten vermeld.
Ietst beter de tekst lezen aub :Z :
Finally, the card seems to offer great overclocking capabilities - at least our review sample did.
dat overklok gedoe gaat af en toe wel een beetje ver imo.
om nou te gaan zeggen van, heej ik kan mijn to 4200 overklokken zodat ie net zo snel is als een 4600 is gewoon pure kolder.
aangezien je die 4600 ook kan overklokken.
dus reviews die suggeren dat een kaart goed is omdat ie goed overklokbaar is slaan imo nergens op.
ik snap die marketing van Nvidia niet, hoe kunnen ze nou in vredesnaam die Geforce 4 MX nog aan de man brengen als er een kaart is die ongeveer even duur is en veel beter presteert. Er zal ook niemand meer aan een geforce 3 ti500 denken. Of ze moeten de prijzen van de huidige chips gigantisch laten droppen. het is een vreemd verhaal iig
Anoniem: 33832 @KaMiKaZe10 april 2002 13:25
De Geforce TI 500 is ook al bijna helemaal op bij Nvidea, ze hadden speciaal gewacht met het uitbrengen van bepaalde GF4 kaarten totdat de Ti 500 chips waren uitverkocht.
Anoniem: 36822 @KaMiKaZe10 april 2002 22:15
Die nVidia GF4 MX series doen het goed in ALDI PC's van MEDION

of in Compaq zooi, zoiets allemaal! Verkoopt goed als ze groot op de doos NVIDIA GEFORCE 4 kunnen zetten.
Anoniem: 53020 10 april 2002 14:33
Ik vraag me af hoe de 2d kwaliteit van deze kaarten
zullen zijn. Mijn oude mx200 is echt belabberd
vergeleken met met "oude" asus tnt2 pro!
Ik denk dat deze qua kwaliteit hetzelfde wordt als de andere Ti serie en deze hebben een zeer goede 2D kwaliteit.
Anoniem: 29041 @VTec10 april 2002 18:40
Nee dat is onzin, heeft niet te maken met nVidia. Het gaat erom of de filters op de videokaart goed zijn of niet. Zodra bijvoorbeeld Asus slechte filters op hun GF4 kaartjes zetten heb je nog steeds dezelfde bagger kwaliteit als bij je oude GF2MX.
Maar je mag er vanuit gaan dat ze dan in dezelfde lijn vergaan, toch ? Ik bedoel: de GF4 (MX en Ti) staan toch bekend om hun betere 2D kwaliteit dan bijvoorbeeld die van de GF2MX en dan mag je er toch vanuit gaan dat het ook zo zal zijn bij de Ti4200 ? + heb ik niet gezegd dat nVidia hiermee iets te maken heeft, toch ?
ik snap die marketing van Nvidia niet, hoe kunnen ze nou in vredesnaam die Geforce 4 MX nog aan de man brengen als er een kaart is die ongeveer even duur is en veel beter presteert. Er zal ook niemand meer aan een geforce 3 ti500 denken. Of ze moeten de prijzen van de huidige chips gigantisch laten droppen. het is een vreemd verhaal iig
Uhm, de Geforce 3 Ti 500 chips zijn allemaal al verkocht. Zie ook dit bericht -> Bijna alle Geforce3 Ti 500 chips verkocht
Jij werkt in het magazijn van nVidia ? :+
Ik zit inderdaad ook al te wachten op dit heerlijke kaartje .. al enkele topics over gezien op GoT en een vriend van me kreeg een week geleden een mailtje van Gistron met het bericht dat ze de Ti4200 binnen hadden .. effe kijken maar :9
Anoniem: 14570 10 april 2002 10:07
Dit zijn nu de meest interessante kaarten, lekker goedkoop en gezien de prestaties ook zeker niet slecht, je zou er eventueel nog twee monitoren mee kunnen aansturen ook :P

Ik vind de strijd die ATI en Nvidea op dit moment doormaken erg handig, dit drukt de prijzen en eindelijk trekt de consument eens aan het betere eind :)

Op dit item kan niet meer gereageerd worden.