Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Bron: Hardwarezone

Op Hardwarezone vinden we een review van een nVidia top-of-the-line referencekaart, de GeForce4 Ti 4600. Deze is voorzien van de NV25 GPU, default werkend op een clocksnelheid van 300MHz en uitgerust met 128MB Samsung DDR geheugen op 325MHz (650MHz DDR). Helaas werd er niet gekeken naar het overclockpotentieel, maar men schat dat het geheugen makkelijk de 350MHz (700MHz DDR) moet kunnen halen. De kaart werd vergeleken met GeForce4 MX 440 en GeForce3 Ti 500 kaarten. Hieronder een stukje conclusie:

GeForce4 Ti logoWell, there is no doubt that the new GeForce4 Ti 4600 is going to be the fastest GPU that money can buy right now. Pair it with the latest motherboard that supports DDR333 and the fastest Pentium 4 processor and you'll have the most powerful gaming system that will turn any gamer (up to a radius of 10 miles away) green with jealousy.

There are certainly a few other areas that we did not investigate in this review, such as the nView technology, the overclockability of the chip and memory, and how it compares with ATI's current RADEON 8500. We can, of course, expect the GeForce4 Ti to beat the RADEON flat to the ground. However, recent news of John Carmack's comments on his development of Doom on the GeForce4 and RADEON 8500 left us wondering how these cards would actually perform in the upcoming game. Well, only time would tell if upcoming games would take advantage of the technologies featured in the GeForce4 Ti. With ATI aggressively supporting game developers today, the battle between these two graphics giants will certainly heat up further. But in the end, the consumers will benefit, no doubt.
nVidia GeForce4 heatsinkfan nVidia GeForce4 heatsinkfan open

The_Hive gooide dit balletje in onze nieuwsgrabbelton, waarvoor dank.

Moderatie-faq Wijzig weergave

Reacties (44)

There are certainly a few other areas that we did not investigate in this review, such as the nView technology, the overclockability of the chip and memory, and how it compares with ATI's current RADEON 8500.
"A few other areas"? Ze laten nu juist de belangrijkste punten liggen waardoor dit weer een review is geworden waar je eigelijk niets aan hebt.

Ik had ook wel kunnen vertellen dat deze kaart de snelste videokaart is die je nu kan kopen, daar hoef ik echt geen Ti4600 voor te testen. Ik had het juist fijn gevonden als ze hadden gekeken hoe goed dual monitor is (sterk punt van 8500), hoe goed de kaart is te o/c'en (altijd leuk, gratis performance tegen weinig risico) en ik had ook graag een vergelijking gezien met de directe concurenten van de Ti4600, dus niet alleen de 8500. Want dan kan je tenminste zien op welke punten de Ti4600 beter presteert.

Redelijk magere review dus IMHO.
Je kan bij THG zien hoe de GeForce4Ti4600 van Leadtek, Creative en de Asus overclocken. Daar kan je vast nog wat interresante informatie uithalen. Hier zijn de overclockresultaten van Tom:

Asus V8460 Ultra 310/710
Creative 3DB4 4600 310/720
Leadtek WF A250TD 320/750

Zo is te zien dat de Asus NIET op een hogere snelheid draaid, wat wel beweerd werd door Asus zelf. Ook is te zien de de core niet veel extra MHz in zich heeft, maar het geheugen (mits goed gekoeld --> Leadtek) daarentegen juist weer wel.

Leadtek schreef in een e-mail aan mij dat de Leadtek WF A250TD (met die grote heatsink) over 1 a 2 weken in de winkel ligt (in de VS). pic
Zo is te zien dat de Asus NIET op een hogere snelheid draaid, wat wel beweerd werd door Asus zelf. Ook is te zien de de core niet veel extra MHz in zich heeft, maar het geheugen (mits goed gekoeld --> Leadtek) daarentegen juist weer wel.
Dat geheugenkoeling (liefst met grote goudkleurige vinnen) is grotendeels flauwekul. Bij veel recente Geforce2 kaarten maken die koelribben niet eens contact met het geheugen. Bij de kaarten waar dit wel het geval is maakt het voor de overclockbaarheid niets uit of ze erop zitten of eraf gehaald zijn. Dit is een tijd terug al vastgesteld door het duitse computermagazine C't. De snelheid van het geheugen is veel meer bepalend dan koeling.

Koelribben zijn de lichtmetalen velgen van de videokaartenindustrie. :7
en ik had ook graag een vergelijking gezien met de directe concurenten van de Ti4600
En welke zijn dat dan?
Ik kan geen enkele kaart bedenken die met de 4600 concurreert, de 8500 retail concurreert eerder met de 4400 en feitelijk met de 4200 (die nog niet uit is)
Volgens John Carmack is de ATI 8500 veel efficienter in de omgang met multiple textures. Ongeveer een factor 3 geloof ik (zoek zijn .plan even op, op http://finger.planetquake.com).

Aangezien alle nieuwe games multitexturing gebruiken, zou de performance voor die nieuwe games dus een factor 3 hoger moeten liggen op de R200 dan op de NV25.

Met bestaande games die nog geen of amper gebruik maken van multitexturing zal de NV25 op 300MHz sneller zijn.

Bedenk dat veel pixel- en lighting-effecten gedaan worden m.b.v. multitexturing. Ook die nFiniteFX engine werkt d.m.v. multitexturing dacht ik.

Dus... Nog ff wachten op Doom III (of DirectX 8.1 games in het algemeen), dan kun je pas echt in de praktijk zien welke van de twee kaarten sneller is.

De ATI gaat efficienter om met textures, de 4600 heeft gewoon meer rauwe power. We zullen zien wie het wint :).

Overigens vind ik efficiency belangrijker dan rauwe power. Power kun je later altijd nog verhogen, beter efficiency betekent dat je een nieuw ontwerp zult moeten maken.
Het design van die heatsink lijkt me nou niet echt prestatiegericht. Of heb ik het fout?
Het is jammer dat de gestroomlijnde heatsink het geheugen niet bedekt en dus niet koelt. Of dat er kleine heatsinks op het geheugen zitten. Dit resulteerd in een wat hoge temperatuur voor het geheugen, je moet geen geweldige overclockresultaten verwachten.

Als je bijvoorbeeld naar de Leadtek GeForce4Ti4600 kijkt, valt je meteen op dat er een zeer groot koelblok op de videokaart gemonteerd is. Zowel de core als het geheugen worden bedekt, en zelfs de achterkant is niet bloot. Zoals je misschien al zou denken, kan je met zo'n heatsink heel wat meer uit die kaart halen.

Maar om even op jouw vraag terug te komen, op de standaard clocksnelheid maakt het niet uit of je dit design heatsink hebt, of een Leadtek design. Pas met het overclocken zal je er wat van gaan merken.
Het is jammer dat de gestroomlijnde heatsink het geheugen niet bedekt en dus niet koelt. Of dat er kleine heatsinks op het geheugen zitten. Dit resulteerd in een wat hoge temperatuur voor het geheugen, je moet geen geweldige overclockresultaten verwachten.
Hier ga je best de fout in. Het doel van deze koeler (het is een reference koeler van nVidia) is dat ie juist wel het geheugen mee koelt. Deze koeler is zodanig ontworpen dat ie lucht blaast over de mem chips. Het is een radiale fan die zijn uitstroom openingen aan de kant van de mem chips heeft zitten. Zo koelt hij de mem chips dus meteen mee, zonder dat er extra heatsinks nodig zijn, of een extra grote heatsink zoals je bij de leadtek kaarten ziet.

Je zal misschien opmerken dat ie de mem chips koelt met opgewarmde lucht, maar dit schijnt (volgens nVidia) geen probleem te zijn.
Het geheugen wordt helemaal niet warm, staat in de review. Blijkbaar is het dus niet nodig.

Sowieso is het niet verstandig om de heatsink één geheel te maken, als DDR 35 graden wordt het het al veel, terwijl die GPU juist vaak 50-60c wordt. Dan zou de GPU het geheugen juist opwarmen!
Waarom heben ze dat dan juist wel in het Leadtek model gedaaN :?
Waarom heben ze dat dan juist wel in het Leadtek model gedaan
Omdat er nog steeds veel mensen zijn die denken dat het nut heeft. :) Je hoeft geheugen niet zo intensief te koelen zoals je een GPU moet doen. Zo'n grote heatsink is dus meer cosmetisch dan functioneel. Ik vind het niet eens mooi om zo'n grote koeler erop te hebben, ten tweede vind ik het overbodig en ten derde vind ik het idee van weer twee herrieschoppers in mijn PC erbij niet zo'n prettige gedachte.
Zoals obsidian zegt: het is een beetje voor de hype, net als heatspreaders op DDR-modules. Bovendien meen ik me ter herinneren dat de RAM en GPU heatsinks op een Leadtek NIET aan elkaar vastzitten.

Als dat wel zo zou zijn zou ik hem meteen modden iig!
En wat gaat dit leuke kaartje kosten?
was dacht het $399 in amerika dus denk ongeveer €499 dus 1100 piekies lijkt wel of die 'zooi'steeds duurder wordt.
Ik heb ook zo'n kaart, maar zolang ik daarmee ruim 120fps haal binnen UT ga ik geen ¤ 500,- betalen voor een nieuwe kaart.
(die prijs is overigens puur gegokt, maar hij is waarschijnlijk nog wel duurder..)

Het gaat overigesn wel erg hard zo met die kaarten. nVidia is goed bezig. Al denk ik dat de game developers er minder blij mee zijn. Neem nou Unreal II.
Zou de eerste game worden die volledig gebruik kon maken van de mogelijkheden van de Geforce III. (pixelshading e.d.).
De Game is nog niet af, en de Geforce4 ligt al in de winkel, met de volgende opvolger al in de pijp.
Nou zal Unreal II best lekker draaien op een geforce4 :P maar ik denk niet dat de gamedevelopers tijd hebben om nu nog het spel aan te passen naar de mogelijkheden van de nieuwste hardware..

Hmm.. beetje wazig verhaal misschien :Z (was laat gisteren)
Wat ik bedoel te zeggen is dat de developers zo eigelijk altijd achter lopen.

En 128Mb op een videokaart..Ach, waarom niet.
6 jaar geleden waren er al MAc's met 32Mb videokaarten. Mensen die veel met fototjes werken zullen waarschijnlijk wel een stukkie verbetering zien dan..en verder is het toch gaaf 8-) zoveel geheugen op je vgakaart.. :+

* 786562 Erik
Het gaat overigesn wel erg hard zo met die kaarten
zo hard gaat het niet, zo hard gaat het al een paar jaar bij nvidia. De echte toffe spellen zijn de laatste tijd niet echt zwaarder geworden omdat zo'n beetje alles op de Q3A of UT engine gebaseerd is en nu lijkt het of de kaarten zo hard gaan, maar de game engines gaan langzaam. Ik weet nog wel dat ik net een nieuwe videokaart had en de eerste Q3A test kwam uit, bleek het dat een TNT niet genoeg was. Zodra de TNT2 uit kwam gelijk een Ultra genomen en ja hoor, ik kon gamen! Dan lijkt het langzamer te gaan omdat je moet wachten op de geschikte kaart, tegenwoordig duurt het veel te lang met die spellen ofzo.
Kan iemand mij overtuigen van het nut van 128MB geheugen op een videokaart?
Met de nieuwe games over een tijdje kan je gewoon meer textures kwijt :)
Maar waarom..de GeForce 5 zit al in de pijpleiding.. en er zijn zelfs gf2-mx'jes met 64MB nota bene???
De nieuwe generatie spellen gaan steeds grotere textures gebruiken.
Op zich geen probleem, maar als je kaart de textures niet in zijn eigen geheugen kwijt kan dan zal ie het systeemgeheugen aan gaan spreken. Op zich ook geen probleem, ware het niet dat je systeem geheugen maar 133Mhz DDR (standaard Athlon systeem) is terwijl de nieuwe kaarten veelal > 250Mhz DDR aan boord hebben, flink verschil zoals je ziet. Daarom is het veel beter om alles op de kaart te doen om geen vertragingen te krijgen. En voor sommige kaarten zoals de MX serie is 128 MB leuk, maar de GPU die daarop zit, zal de hoge bandbreedte niet kunnen gebruiken. Dus voor die kaarten is het inderdaad een beetje overbodig.
Pair it with the latest motherboard that supports DDR333 and the fastest Pentium 4 processor
Kweenie hoor. Volgens mij krijg je geen echt brute performance, als je er al in slaagt een P4 in een Athlon bord te persen :).
Wil jij zeggen dat er nog geen PIV DDR 333? bord is? Die is er al wel hoor, net nieuw en nog niet in NL mischien maar het bestaat al wel.
De Ti 4600 kost bij sallandautomatisering (http://www.sallandautomatisering.nl) ¤ 579 (V8460 Ultra DT, GeForce4 Ti 4600, 128MB DDR, TV-Out).

Staat er al een tijdje op, maar ze hebben em nog niet.
Ik vind 1276 piek trouwens wel heeel er duur voor een videokaart, maar hij is wel snel :*)
Jij hebt het dus over het Asus model. Als je bijvoorbeeld voor het PNY, eVGA of Visiontek model kiest, ben je zo ¤50 - ¤100 voordeliger uit. Das dus een paar honderd "piek".
je gaat Asus toch niet vergelijken met die merken die jij noemt.
als je gaat OCen zou ik altijd voor het beste merk, kwaliteit is niet voor niets duurder.

snellere chippies zijn vaak echt hun geld wel waard
yep, maar Leadtek's zijn ook zeer goed te OCen. En die zijn helemaal niet zo duur :*) (nja, in verhouding dan :P)
Mja, op tomshardware waren er eergisteren ook al verschillende Ti4600 kaarten aan bod gekomen.
hier krijg ik nou een dikke pixel van :7 :7
Zo da's pas een vette OC 25 Mhz!! En dat ze de belangrijke dingen links laten liggen is best jammer, maar daarvoor is GoT ontwikkeld..
Zo da's pas een vette OC 25 Mhz!!
Ik mag hopen dat dat sarcastisch bedoeld is?
25MHz is _geen_ goede overclock, zeker niet op 300MHz, dan denk ik toch eerder in de richting van de 50 ofzo.
En 50 is helemaal niet overdreven, nee.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True