Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: AnandTech

De mensen bij AnandTech hadden de mogelijkheid om een aantal videokaarten te testen met de laatste betaversie van Unreal Tournament 2003 en hebben hun verslag gepubliceerd. Getest worden de laatste modellen van ATi, de GeForce-serie, de Parhelia van Matrox en een Kyro II. In een korte inleiding wordt de verwachting uitgesproken dat toekomstige spellen niet alleen bandbreedte-gelimiteerd maar steeds vaker ook GPU-gelimiteerd zullen zijn. Uit de tests blijkt dit nog niet: AnandTech bepaalde zowel de bandbreedte van alle kaarten als hun snelheid in het spel en komt tot de conclusie dat de kaarten met de hoogste geheugenbandbreedte ook het hoogst scoren in het spel.

De onbetwiste winnaar van het moment is de GeForce4 Ti4600, gevolgd door de Ti4400 en de Ti4200. De Radeon 8500 bevindt zich daar achter, in gezelschap van de GeForce3 en de Parhelia. In het onderste deel van de stand vinden we de Radeon 7500, de MX-serie van de GeForce4, de verschillende GeForce2-modellen en de Kyro II. Aangezien zelfs een Ti4600 in de hoogste resolutie maar net boven de 40 frames per seconde uitkomt, verwacht de schrijver dat de tijd voorbij is dat de mogelijkheden van hardware vooruit liepen op de eisen van software. De conclusie van AnandTech over de nieuwkomer in de tests:

Without considering its price tag, the Parhelia isn't too bad as Matrox's first new attempt at 3D graphics in two years. But once you take into account the $400 you'll have to shell out for it, hardcore FPS gamers will find little reason to go for the Parhelia. Matrox definitely needs a lower cost version of the Parhelia to gain market share among gamers and it will unfortunately take more than a 64MB part to do that; maybe a single-headed card or some other feature reduced implementation would work for those users that are mainly interested in price/performance rather than features like Surround Gaming.
Gainward GeForce4 Ti 4600

Met dank aan DRGREEN voor de tip.

Moderatie-faq Wijzig weergave

Reacties (75)

Wel , exclusief voor Anandtech, niet uitgelekt , don't make me laugh :) Vorige week haalde hier hier van de newsservers van Telenet ( belgiŽ ) , build 903 af, zo'n 500 mb installatie af met 7 levels die vol zaten van de fouten en niet vooruit te branden was, en models van aan elkaar geplakte poligonen...

Gisteren op dezelfde locatie build 923 , 2.2 gig aan installatie, veel betere pfs, mega-gedatailleerde models, 30 maps of zo, enfin meeeeegaaa cool ( en dat voor een quake fan :) )

Dus laat die "niet uitgelekt maar weg ... hier in belgiŽ lekt hij uit als een trein , zie zelf maar

http://users.pandora.be/cougare/ut2003

(screens zijn van andere belg , maar die heeft wel dezelfde build als ik )
But once you take into account the $400 you'll have to shell out for it, hardcore FPS gamers will find little reason to go for the Parhelia.
Hmz, ik snap nog steeds niet welke markt Matrox dan WEL met deze kaart wil aanspreken.

De markt voor 3D rendering? Heh, die kopen wel een SGI of een snelle PC met een simpele videokaart. 3D renderen voor films doe je puur op de coprocessor van je CPU, daar komt geen GPU bij kijken. 3D renderen doe je niet met je videokaart, die gebruik je hooguit voor previews.

De markt voor games? Ja, wat denk je nou? Computergames worden toch echt voornamelijk door jongeren gespeeld en die gaan niet voor $400 een kaart kopen die langzamer is dan de concurrentie. Hoe mooi de graphics ook zijn.

De markt voor kantoorapplicaties? Hahaha, ja, genoeg managers die zo'n kaart zullen kopen vanwege het prestige dat er aan vast zit. Voor de rest levert die kaart niets meer dat de G450 al levert. Ja, een head extra, misschien dat mensen met HELE GROTE, GEVULDE desktops er iets aan hebben (ik denk aan stock-brokers).

Volgens mij is het prijsverschil tussen single- of multihead niet zo groot dat dat een echte besparing op de prijs gaat leveren.

De enige markt die ik kan bedenken is de markt voor tv-graphics, die kwizzen met computergraphics die je wel eens op TV ziet (lingo etc.). Maar daar moet je toch twee keer kijken voordat je die markt ziet, zo klein is 'ie?

Ik denk dat Matrox een beetje misgokt met deze kaart. Ze moeten de geheugenbandbreedte MEGASNEL verhogen, anders gaan ze het schip in. Crossbar, z-compression, texture caching, dat hadden ze allemaal al kunnen inbouwen zou ik zeggen.

Volgens mij hebben de ontwikkelaars bij Matrox meer geluisterd naar de marketingmensen dan naar de markt. Matrox is het slachtoffer geworden van zijn eigen vage marketingplannen, die niemand waarschijnlijk snapt.
Zoals Matrox zelf al zegt is deze kaart voor de gamer die ook nog veel photoshopt, flash gebruikt, 3d studio max enzo. Dus niet een diehard game kaartje maar een all round kaartje, en niet zo'n slechte ook! Sublieme 2d kwaliteit, redelijke snelheid in games, dit is precies zo'n kaartja die mijn Voodoo5 mag opvolgen! Ik koos destijds ook voor Voodoo in plaats van Nvidea vanwege de 2d kwaliteit, en zo zijn er nog wel meer.
Hmm, maar volgens mij ben je dan heel wat goedkoper uit als je een GF4 Ti.4200 koopt en er een PCI Matrox G450 naast zet. Gebruik je je GF4 voor gaming en je G450 voor de mooie en snelle 2D.

Als je DirectX gebruikt is dit geen probleem meer. Wel als je in OpenGL wilt spelen omdat Microsoft geen multimonitor support voor hun OpenGL ICD wil schrijven (ze ondersteunen OpenGL gewoon niet meer, dus nieuwe features die buiten de drivers geimplementeerd moeten worden zullen ze niet implementeren).
Renderen doe je niet met je videokaart nee... maar voordat je iets kan renderen moet er gemodeleerd, getextured en geanimeerd worden en daar wil je toch zeker wel een goede videokaart voor hebben. Dus voor de grafische markt zal dit waarschijnlijk wel een goede optie zijn... Je wil ECHT NIET met een goedkoop kaartje in die programmas (Maya, XSI, Max, LW) werken want daar wordt je helemaal triest van.

Voor de gamer zal het niet zo'n interessant iets zijn... hooguit voor de meer professionele gebruiker die ook wel eens erbij gamed. De goede 2d kwaliteit en die dual view dingen (weet niet hoe ze precies heten) zijn voor de professionele markt veel belangrijker dan framerates in Unreal 2003.
Mensen die ECHT bezig zijn met 3d applicaties zullen wel voor een van de Wildcard varianten gaan, maar die zijn eng prijzig. Dit is meer een 'budget' oplossing voor de mensen die zowel willen gamen als creatief willen werken op hun PC. Ik ben er een van, m'n G400MAX trekt nog maar net Neverwinter Nights, dit vind ik heel erg jammer want voor de rest doet het ding het nog prima. Had gehoopt dat de 3d performance het wat beter zou doen, ik zit nu een beetje te twijfelen tussen de nieuwe matrox of de snelste Gforce... Ik wacht nog wel even voor ik beslis.
Hmm, 7.3fps met mijn GF2MX op 1024x768 high detail...

Dat wordt dus upgraden :). Ik heb het best lang volgehouden dit keer: 2 jaar!

Ik was nog aan het twijfelen over een GF4 TI.4200 of een Radeon 8500, maar het lijkt er op dat de GF4 toch een iets betere memory performance haalt.

Weet iemand al wat de eerste kaarten met de R300 ongeveer gaan kosten? Zal wel weer zo'n EUR 450 zijn ofzo :'(.
Wat een moster is de NVIDIA GeForce4 Ti 4600 (128MB) toch he? Waar een NVIDIA GeForce2 MX 200 (32MB) 1.8 fps haalt red zijn grote broer het met 41.1 fps!!!!
Aangezien de GF2mx200 d'r eerder was, is die dan toch de grote broer! ;) ... De jongste telg presteert alleen beter, maar dat komt in de beste gezinnen voor :)
Bij mij liep de leaked demo heel lekker :)

en het zal zeker wel een succes worden...

mijn specs: XP1800+ 384mb Radeon 8500 (in 1024x768 ofcoz) en dat liep perfect :)
Aangezien zelfs een Ti4600 in de hoogste resolutie maar net boven de 40 frames per seconde uitkomt
In de hoogste resolutie dus.. met details op een normaal niveau zal hij zelfs bij jou draaien.
Het spel ondersteunt zelfs een voodoo 3 en een TNT kaart (8>
ik (nog :P ) een tnt2 ultra kaartje 150 Mhz en 183 Mhz sdram WOW

koop een ti4200.

sommigge mensen kunnen ook nooit de tekst even lezen he. :(|
Vaak wordt er gezegd dat een ti 4200 door het sneller geclockte geheugen het in spellen vaak beter doet dan zijn grotere broer.Maar tot nu toe heb ik daar nog geen een voorbeeld van gezien.

Ik vraag me ook af wanneer al die extra futers van de Parhelia tot zijn recht komen in games.Of misschien is het gewoon geen game-kaart,maar wel bijna 2 maal zo duur als de gf 3 :D
Volgens mij loopt het geheugen van de Ti4200 (64) en de Ti4400 (128) op dezelfde snelheid. Het enige verschil in geheugensnelheid zit dacht ik tussen de Ti4200 (64) en de Ti4200 (128). Correct me if I'm wrong.
4200 (64mb) loopt op 500mhz effectief.
4400 (128mb uiteraard) loopt op 550 standaard.

Ik heb zelf een Abit 4400, en ik kan em stabiel op 300/700 mhz laten lopen. Heel soms een artifactje als het wat te warm wordt, maar dan schroef ik de koelers ff naar 12 volt :)
Niet correct:

De GF4 Ti 4200 64 MB loopt op 250/ 500 MHz effectief (128 bit brede DDR bus)

De GF4 Ti 4200 128 MB loopt op 250/ 444 MHz effectief (128 bit brede DDR bus)

Dit betekent een memory bandwidth van 8 GB/s en 7.1 GB/s respectievelijk. De 64 MB kaarten zijn over het algemeen beter OC-baar. De 64 MB scoren ook beter qua performance in verscheidene benchmarks.

Toch raadt men aan met het oog op toekomstige spellen voor de 128 MB variant te kiezen (grotere textures e.d.) ondanks de lagere performance van de 128 MB kaarten uit verscheidene testen/reviews/benchmarks/etc. Zie onder andere:

http://www.tomshardware.com/graphic/02q2/020418/index.html

ťn

http://www.anandtech.com/video/showdoc.html?i=1643&p=17
Daar lijkt het inderdaad wel op, want uit de grafieken blijkt dat de 64MB versie vaak sneller is dan de 128MB versie.
maybe a single-headed card or some other feature reduced implementation would work for those users that are mainly interested in price/performance rather than features like Surround Gaming.
Zitten die mogelijkheden niet in de chip zelf ingebakken? Oftewel--> Het scheelt alleen een paar connecteren, dus bijna nix in prijs .. (dus schiet het niet op om hier op te bezuinigen)...
Als dat idd zo is, beetje een onzinnige opmerking

[edit] meervoud van mogelijkheid... (zo ongeveer alles zit in de chip zelf...?)
ze moeten net als nVidia en ATI alleen de chips zelf maken en de kaart lekker door bedrijfen als ASUS etc.
Dit is juist hetgene wat Matrox sterk maakt! Ze kunnen een bepaalde kwaliteit garanderen door alles zelf te doen, zouden ze dit veranderen dan zouden ze zeker verdrinken tussen eht aanbod van de rest.
Als je iets van Matrox koopt weet je tenminste wat je krijgt. Als je een Geforce koopt, kan je gaan zoeken...ehmmm, heeft ie een goede 2D-filter?...ehmm, is de TV-out scherp ?....ehmm...zitten er 3ns memory chips op of die tragere....en die cooler, is die wel vet genoeg ....

Nee, laat Matrox in godsnaam alles lekker zelf doen. Is er tenminste nog eentje waar je je daarover geen zorgen hoeft te maken ;)
Nou geef jij dan eens fijn een link waaruit blijkt dat ATi op het randje van de afgrond staat. Dat is namelijk bully shitty.

En Matrox zou ongeveer het zelfde kunnen doen als ATi, EN zelf kaarten maken EN andere bedrijven kaarten laten maken.

Ik vind wel dat de parhelia voor het geld dramatisch presteert in deze test, dat is echt heel jammer, ze hadden alleen nog ff moeten testen met Anisotropische filtreing aan, er is geen spel meer wat ik zonder speel namelijk.
Idd... De Radeon 8500 zal nauwelijks een perf. hit krijgen van AF.. maar de GF4 zal wel degelijk klappen vallen.. Bovendien neemt de beeldkwaliteit genoeg toe dat het eigenlijk tot een standaard test zou moeten horen...
uhuh, kijk naar 3Dfx, ging prima toen ze de productie in eigen handen namen, en ATI heeft een heele domme zet gedaan om de productie uit handen te geven, staan op het rantje van de afgrond ;)
er stond een vette knipoog achter, psycho....
Mwoh, maakt niet echt veel uit.
Je ziet _erg_ vaak dat er een aantal verschillende producten zijn waartussen een behoorlijk prijsverschil zit en waar de features alleen softwarematig uit zijn gezet. In die gevallen heb je zelfs precies dezelfde hardware maar betaal je toch een heel stuk minder..

't is dus vooral marketing allemaal.. En het is goedkoper om veel van dezelfde chips te maken dan 2 verschillende chips te maken en produceren.

Productie van zo'n chip kost niks, 't gaat vooral om ontwikkelingskosten en investeringen.

Dus een goedkopere versie is zeker wel te doen. Kijk ook maar naar bv de GeForces...
Aangezien zelfs een Ti4600 in de hoogste resolutie maar net boven de 40 frames per seconde uitkomt, verwacht de schrijver dat de tijd voorbij is dat de mogelijkheden van hardware vooruit liepen op de eisen van software.
Ik denk dat 'de schrijver'' daar nog maar even over na moet denken. Deze game is nog niet uit, en nu al is er een kaart die 'm in de hoogste resolutie met 40Fps kan draaien. 40Fps is echt genoeg voor een vloeiende gameplay, daarnaast is er tegen de tijd dat de game daadwerkelijk op de schappen ligt wel al weer een nieuwe kaart op de markt die 'm slapend draait.
Dan zou deze schrijver ook maar eens op zijn eigen stukje moeten letten. Vriend, UT2K3 word al in Oktober in de schappen verwacht, EPIC en TAKE 2 kennende wordt dat vast niet veel later dan November, ik denk niet dat dan de Geforce 5 al uit is, en indien wel bij iedereen in het systeem ligt te ronken.<P> Wat tevens wel zo is, is dat de BETA van C&C Renegade ook liep als dikke stront en de uiteindelike game de 60 fps wel moet halen met een GF2 GTS in een 800 MHz systeem met 128 MB Ram. Je weet maar nooit...
komt inderdaad vaker voor dat games in beta slecht presteren...

ook als ze uitgebracht zijn zie je na een patch ineens je framerates omhoog schieten.. dat heb ik in ieder geval al gemerkt bij Morrowind (die heeeeeel slecht draaide ini het begin) en ik verwacht het zelfde bij GP4 (waar ik zeker niet te vreden ben met 18.9 frames op mijn gf2mx400 dual/tv)

dus ik verwacht nog een grote sprong kwa framerate in de game.
Zeker wetuh, heb je wel eens Deus Ex met een Direct 3D kaart (bijv. Geforce) gespeeld zonder patch?
En daarna met? See the difference.

Die mongolen hebben volguhs mij gewoon de game alleen getest met een 3Dfx kaart, en in Direct3D vast alleen met een High-End Athlon PC.
Make that August
40fps is allezins respectabel, en voor veel gamers voldoende. Maar de hardcore gamer zal meer willen.

Aan de andere kant, tegen de tijd dat dit spel released wordt zal het wel wat beter geoptimaliseerd zijn, er zullen dan snellere cpu's zijn, en als het een beetje meezit is de volgende generatie grafisch kaarten dan al weer aangekondigd.
:( Geforce2, Kyro II :( Waar is de Voodoo5 5500?
Goede vraag. En waar is de Viper 2 :(

Ik had een brakke Beta versie van UT2K3 pas op een lan gedowned maar die deed het niet :(
Ik geloof dat de viper2 evenals alle voodoo kaarten toch echt dood is, zeker met een spel als ut 2003 die toch al vrij zware eisen aan de videokaart stelt.
Ik wil niet zeiken maar dan moeten die Kyro II en Geforce2 ook dood zjin aangezien ze uit dezelfde tijdsperiode komen.
Geforce2, Kyro II Waar is de Voodoo5 5500?
Dood? ;)
Vraag me af of ze die nog ondersteunen, de groep mensen die zo een kaart heeft wordt steeds kleiner.
En gezien de leeftijd van de voodoo 5, zal het ook wel niet echt een kaart zijn om mee te UT2k3en... denk ik.
Staat toch in het stukje bij Anand :?

Voodoo3, V4 en V5 werken wel met het spel, maar niet met deze benchmark.
En gezien de leeftijd van de voodoo 5, zal het ook wel niet echt een kaart zijn om mee te UT2k3en... denk ik.
BS natuurlijk, want op Medium detail heb je zelfs met een GF2 MX 400 nog 34 fps op 1024x768.
Edit: in eerste instantie dacht ik dat het hier om de UT2003 Performance test ging, dit door een beetje vreemd linkje op eerste pagina, deze link ging naar de test van januari zoals lunatic terecht opmerkte.

Excuses voor de slechte info :(

Mod me down please.
Als je de review zelf nou even had gelezen dan was je er achter gekomen dat er een demo van het spel is gebruikt voor de test. Deze demo, misschien nog iets verbeterd zal je straks ook zelf kunnen spelen. Dit is dus WEL representatief voor allerlei FPS's die straks uit gaan komen en gebaseerd zijn op de unreal engine.
deze demo draait oznder bots, die zuipen fps :/
Nee, die heb jij niet gespeeld want deze is exclusief voor Anandtech en is ook niet gelekt.
De produktie van dat spel gaat zo ontzettend snel, dat jouw build van misschien maar een paar weken ouder al veel anders in elkaar steekt. Met de technieken om alles sneller te laten draaien niet eens inbegrepen.
De ontwikkelaars waarschuwen zelf ook al lang voor deze gedachtes. Natuurlijk gaat het aantal fps achteruit als er bots in beeld zijn.
Maar nergens staat of ze wel of niet bots gebruikt hebben met het benchmarken. Ik zou het nogal zwak vinden als ze dit niet hebben gedaan... ik ga er van uit van WEL
Die demo heb ik zelf ook gespeeld (maybe een iets oudere) en daarin is wel duidelijk dat bots fps zuigen ja. Maar toch valt de score mee, als je niet perse op 1600x1200x32, 4xAA moet spelen :)
Ik weet uit betrouwbare bron dat de performance van deze build plusminus 20% hoger is dan de 950 MB leak die nu op interent te vinden is.
Hoe weet je dat??
Ik vind het vaag, kijk hier maar http://www.anandtech.com/video/showdoc.html?i=1580&p=3 lijkt me toch echt dat het gaat om een performance test.
Jij hebt het over een andere bechnmark van Anandtech. Eentje van 24 januari om precies te zijn |:(
Sjors dit is niet getest met de Unreal Performance Test 2002. Ze hebben (weer, voor 2e keer) een exclusieve demo gekregen van Epic, deze dateert uit vorige week :D
With all of that said, today we will be bringing you an update to the first article we did using the Unreal Performance Test back in January. We've rounded up a total of 19 GPUs and benchmarked each and every one of them under a 6/28/2002 build of Unreal Tournament 2003 that Epic produced for our use.
Dus je mag er wel van uit gaan dat het zo draaid, mits je ook een AMD Athlon XP 2100+ met PC2100 CL2.0 systeem onder je kaart hebt draaien.
Deze scores gaan hoger dan ik verwacht had! Als dit uiteindelijk ook de gemiddeldes zijn!

* 786562 Lunatic_P
Anandtech heeft niet de (eerder uitgebrachte) Unreal Performance Test 2002 gebruikt!

Ze hebben een zeer recente build gebruikt (en twee levels die ook in UT2003 zullen zitten)... zie onderstaande quote:
We've rounded up a total of 19 GPUs and benchmarked each and every one of them under a 6/28/2002 build of Unreal Tournament 2003 that Epic produced for our use.
Dus misschien zijn deze benchies wŤl representatief voor 't spel ... then again, maybe not

[edit] Hmmm... 5 minuten te laat... dubbelpost, here we come! ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True