Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties

AMDZone heeft videokaarten getest in een bčtaversie van Unreal Tournament 3. De GeForce 8800 GTS is veruit het snelst dankzij de afwezigheid van de GeForce 8800 GTX/Ultra en ATi's Radeon HD 2900 XT.

ATi logo (klein)De geteste videokaarten zijn de GeForce 8800 GTS met 320MB en 640MB videogeheugen, de GeForce 7900 GTX en de GeForce 7900 GT van nVidia en de Radeon X1950 Pro en de Radeon HD 2600 XT van ATi. Ironisch genoeg laat AMDZone het topmodel van AMD, de Radeon HD 2900 XT, buiten beschouwing.

Door de afwezigheid van andere topmodellen als de Radeon HD 2900 XT staat de GeForce 8800 GTS eenzaam aan de top. Op een resolutie van 1280x1024 staan de 320MB- en 640MB-uitvoering van het nVidia-topmodel bovenaan met 100fps. De nummer drie in deze test is de GeForce 7900 GTX met 57fps. De eerste AMD-videokaart staat op de vijfde positie: de Radeon X1950 Pro moet de GeForce 7900 GT voorlaten met 46fps tegen 49fps. De GeForce 7600 GT kan het duidelijk niet bijbenen met slechts 21fps.

nVidia GeForce-logoOp een uxga-resolutie is het beeld niet anders: de GeForce 8800 GTS staat met afstand eerste en tweede in de ranglijst. De 320MB-versie toont met 77fps een beeldje minder per seconde, wat aangeeft dat zelfs op deze resolutie 320MB videogeheugen genoeg is. De GeForce 7900 GTX tovert per seconde 45 beeldjes tevoorschijn, gevolgd door de GeForce 7900 GT en de Radeon X1950 Pro met 38fps en 35fps. Deze hoge resolutie is een 'no go' op de GeForce 7600 GT, die met 16fps duidelijk tekortschiet.

Moderatie-faq Wijzig weergave

Reacties (100)

Hier een veel betere test, misschien iets om op te nemen in de nieuwspost?

http://www.pcper.com/article.php?aid=464
test klopt niet helemaal de FPS limet staat aan dus kaarten kunnen niet hooger komen dan 63 FPS
Men vergeet dat het hier om de demo gaat, waain geen highres textures gebruikt worden. Texture detail op 3 of 5 maakt niet uit, zelfde geldt voor world detail.

In de volledige demo/versie zal er wellicht een groter verschil kunnen optreden tussen de 256/512 en 320/640 MB modellen...

Ik hoop het, dan ziet iedereen het nut pas in. Dat was tot dusver nog niet het geval denk ik.
Op zich heb je daar gelijk in, het volledige spel zal zeker profijt hebben van 512/640MB videogeheugen. Tim Sweeney heeft dit zelf ook al gezegd:

"In Unreal Tournament 3 and Gears of War for PC, there is a significant gain in having 512MB of video memory rather than 256MB. So, first and foremost, get at least a 512MB card if you can afford it. If you haven’t maxed out your budget, then go for the maximum single-card performance that doesn’t require extreme cooling, e.g. buy an entry-level GeForce 8800 over a GeForce 8600." (Bron: The Inquier)

Maar dat er geen verschil in texturedetail optreedt als je deze verhoogt van 3 naar 5, zag je in UT2004 ook al. De overgang van High naar UltraHigh was vaak niet te zien, terwijl daartussen zelfs ook nog VeryHigh zit. Dus hoeveel hoger de texturedetail zal zijn in UT3, is nog de vraag.
http://www.theinquirer.ne...inally-gets-fps-smackdown

Schijnt dus geen AA te hebben vandaar goede prestaties.
Wel afwachten of 2xAA of 4xAA gebruikt wordt op de dedicated hardware van de Xbox360 maar daar zullen we nog wel 0.75 jaar op moeten wachten...
Even een vraag tussendoor want volgens mij heb ik gemist waarom... waarom wordt er nu gebruik gemaakt van 320 of 640 MB op een videokaart?

Dat meer geheugen beter is, snap ik, maar waarom niet overstappen naar 512 en 1024 ipv deze 'rare' waarden?
bits voor de geheigeninterface zijn bij nvidia niet helemaal standaard (kost/design aspect) dus geen 64/128/256 maar 96/194/388 bits geheugeninterfaces (zie het als reepjes geheugen op je moedebord)
correctie 96/192/384
Waarom had Nvidia al een nieuwe kaart op de markt moeten zetten? De 8800GTX, en zeker de Ultra, hebben momenteel geen concurrentie. De HD2900XT moet in veel gevallen net het onderspit delven. En deze trekt ook veel meer prik uit je wanddoos...
De strijd zal begin volgend jaar wel weer losbarsten, als beide fabrikanten nieuwe modellen uitbrengen.
En deze trekt ook veel meer prik uit je wanddoos...
*buzz* Wrong. Onder load trekt ie idd een paar wattjes meer, idle is de kaart een stuk zuiniger dan diens concurrenten. Dus per saldo maakt het geen fluit uit...
Hoe vaak game jij met je kaart op idle? en hoevele tijd spendeert een gamer gamend versus de tijd die hij doorbrengt met dingen waar de videokaart niets boeiends doet?
Ik denk niet dat "de gamer" zn PC aanzet, 3 uur speelt en die dan meteen weer uitschakelt. Tweakers.net/overbodig.be/random kulsite bezoeken of de PC snachts laten aanstaan voor een download zal er ook wel bijhoren.
Inderdaad, en zoals uit onderstaande link blijkt verbruikt de HD2900XT meer idle dan zijn 8800GTS concurrent.
[...]


*buzz* Wrong. Onder load trekt ie idd een paar wattjes meer, idle is de kaart een stuk zuiniger dan diens concurrenten. Dus per saldo maakt het geen fluit uit...
Hier ook een buzz voor jou. Je bent sterk in claims maar je kan ze niet hard maken.
Kijk hier eens:
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=30

Is de 2900XT een stuk zuiniger idle? Dacht het niet.
187 Watt lijkt me nog altijd minder dan 191 Watt. Lezen is ook een kunst; het gaat hier om de GTX, niet de GTS.
het is niet erg ontopic, maar om toch ff (uitgebreid) te andwoorden.

Er komt nu (binnen 2 weken) een 8800GT DirectX10.1 dat is middensegment
Later (Januari) komt de G92_300 (zo heet die nu nog) das de high-end kaart daarvan.. die zal wel iets in de trent van 9800GTX gaan heten ofzo denk ik...

Ik wilde eerste de 8800GTX kopen, maar doordat in Februarie van dit jaar op Tweakers.net het bericht kwam dat Nvidia bezig zou zijn met SLI2.0 dat volgens geruchten op de Cebit zou worden gepresenteert (dat is niet gebeurt) wilde ik wachten op een kaart die dat ondersteunde, maja ik wacht nu dus al bijna een jaar :P en ga daarom dus maar voor die G92_300 hopent dat die SLI2.0 ondersteunt (Omdat SLI2.0 Mixed setup zou ondersteunen, en ik een pc wilde kopen die ik in de toekomst wat kon uitbreiden in plaats van na 3 a 5 jaar helemaal te moeten vervangen)

Verder twijfel ik nog over X48 chipset of Nforce, om het hele verhaal maar vol te maken :P

Overgens ondersteunen de 8800GTX en 8800 Ultra nu Triple SLI iets dat volgens die eerdere berichten met de komst van SLI2.0 zou komen, dus wie weet heeft de G92 inderdaad SLI2.0 met mixed setup, al was dat triple setup alleen mogenlijk op Nforce meoderborden (vandaar me tijfel tussen Nforce en X48 :P als Mixed setup ook alleen mogenlijk word op Nforce moet ik Nforce :P anders zag die X48 er heel goed uit (ook toekomstgericht) maja er is nog helemaal niets over SLI2.0 en mixed setup bekent).
/\jij zoekt alleen nieuwe video-kaart dus moederbord-verhaal beetje overbodig, maja

Neem aan dat je nu genoeg weet van de kaart en de misschien mogenlijke mogenlijkheden :P

Wat betreft dit artikel.. leuk die FPS maare waarom zeggen ze ook even niet hoe het uit ziet?? UT3 ondersteunt tenslotte DirectX10.. iets dat ook niet al deze kaarten ondersteunen.
Een vergelijken zou dus wel op z'n plaats zijn.
Ik had echt gedacht dat de 640MB versie een stuk beter zou presteren op 1600x1200 dan de 320MB versie. Maar nu ik erover nadenk, in de demo kan je volgens mij niet op max settings draaien. Op max settings zullen de textures vast een hogere resolutie hebben, dan zien we misschien meer verschil tussen 320 en 640MB.

[Reactie gewijzigd door pingkiller op 15 oktober 2007 20:58]

Tjsa, als er voor 1600X1200 niet meer dan 320 MB nodig is dan heb je inderdaad niet veel aan meer. Zijn er uberhaupt wel spellen waar je een hogere resolutie in kunt stellen, en, belangrijker nog, zie je ook nog verschil tussen die resoluties qua beeld?
Het benodigd geheugen is natuurlijk niet alleen resolutie-afhankelijk. De framebuffer is maar een van de dingen die in het videogeheugen moeten passen; de textures en 3D geometrie (en Z/stencil/whatever-buffers, lights, shaders etc...) moeten er ook nog bij wil je niet moeten terugvallen op je (tragere, aangezien de data dan over de bus moet) normale RAM geheugen. Professionele videokaarten hebben (hadden?) vaak gescheiden dedicated geheugens voor framebuffer(s), geometrie en texture data.

Veel videogeheugen kan dus wel degelijk helpen bij spellen met erg veel variëteit in textures of een bijzonder grote 3D wereld, zelfs al zou je op oldskool 320x240 spelen :P Blijkbaar is UT3 (de demo althans) niet zo'n spel.

[Reactie gewijzigd door johnwoo op 16 oktober 2007 00:36]

Tuurlijk. Elke zichzelf respecterend Direct3D spel neemt gewoon je resoluties over uit Windows, en het verschil tussen spelen in 1600x1200 en 2560x1600 is heel duidelijk zichtbaar.
Titan Quest, S.T.A.L.K.E.R., BioShock en SupCom lopen uitstekend op 2560x1600 en als ik er dan Quake 4, Doom, UnrealTournament 2003 of een soortgelijk OpenGL spel naast hou dan zien die er echt slecht uit. Dat kan bij UT2003 wel met de leeftijd van doen hebben maar Quake en Doom vergelijken met STALKER...
In de hoge resolutie kan ik in Stalker van verre al zien dat er beestjes door het moeras sluipen. Op 1600x1200 zie je een gelige vlek die een moeras moet zijn.

Het enige wat je moet hebben is een 30"tft en een 8800Ultra en big-screen high-detail gaming is ineens geen toekomst muziek meer.
Klopt, vandaar ook dat de high-end kaarten 'overkill' scores laten zien.

Alles maximaal instellen in de demo zou ongeveer overeen komen met alles medium in de final release van UT3.
Waar haal je die informatie vandaan? In de demo kan ik alles op max zetten, hoor. Je kunt een schuifbalk gebruiken hiervoor. Bijna alles in de demo staat bij mij nu op max.

Heb je een bron of iets dergelijks om je bericht te onderbouwen?
De bron is de demo zelf.
Experimenteer maar eens met de video settings, dan zie je meteen dat er geen verschil zit tussen niveau 3 texture/world detail en niveau 5. Oftewel: we missen nog 2 detail niveaus.
en dat is te zien ook....
ben er net achter gekomen dat de Beta Demo eigenlijk de PS3 demo is die snel bewerkt is voor op de pc te spelen. als je is gaat rond kijken bij de bestanden zie je nog wat dingen voor de PS3 staan. ook is dat de rede dat sommige dingen niet all te best werkt en ook de rede is dat bij multiplayer browser staat; Mouse and Keyboard Server.
Bron?
Zou ook die brakke interface verklaren..
http://utforums.epicgames.com/showthread.php?t=580307
en stonden nog een paar topics op het UT3 forum al kan ik die niet meer vinden.
plus kijk zelf maar is tusse een paar .ini's van UT3 en je ziet zelf wel wat dingen staan.
bijv; C:\Program Files\Unreal Tournament 3 Demo\UTGame\Config\DefailtGame.ini (als je standaard dir heb)
De test is dan niet representatief maar geeft wel een duidelijke indicatie. Zeker met de overgang XP/Vista en daarbij alle videokaarten die zijn uitgekomen, vanaf de laatste versie DX9 kaarten en de daarop wolgende DX10 kaarten en alle tussenliggende modellen is het haast geen doen meer om een goeie test neer te zetten, of denk je nu echt dat ze een test van 20+ videokaarten gaan doen voor een demo ?

Doet me nog terugverlangen naar het computer tijdperk waar het allemaal nog simpel was. De VooDoo Banshee kaarten destijds waren het summum, veel meer was er niet behalve dan wat kaartjes voor normaal desktop gebruik :)

Maar ik denk dat de high end kaarten zich geen zorgen hoeven te maken, die krijgen toch wel het maximale resultaat en mid range kaartgebruikers weten nu eenmaal dat ze op lagere settings moeten spelen.
Ik ben nou net blij dat er concurrentie is. Krijgen we nette prestaties voor een nettere prijs...
Ik had ook niet gezegd dat ik niet blij was maar dat je door de bomen het bos niet meer ziet. En betere prijzen ? 650 pleuro is nog steeds ongeveer 1500 gulden.

Desktop kan af met een onboard chippie, en voor gamers hoef je maar 2 modellen uit te brengen, mid or high. Maar wat ze doen, waar ik soms wel een beetje moeite mee heb gezien de prijzen is dat de mid range gewoon GPU's zijn die een slechte yield hebben. Als je dat letterlijk vertaald krijg je dus een gare GPU. Leuk dat ze testen en kijken op transistor nivo maar jammer dat ze nog steeds geen 100% wafers kunnen produceren.
Waar zie jij concurrentie? Er is al een jaar geen concurrentie meer.
Dat er geen nieuwe modellen worden uitgebracht betekend niet dat er geen concurrentie is. ;)

Er zijn wel prijsverlagingen geweest, en beide partijen zijn vast hard aan het werk voor de opvolgers.
Bij mijn weten heb je geen super hardware nodig om UT3 te draaien, net als met de voorgaande delen. Het lijkt wel alsof de midrange kaarten hier extra aangeprijsd worden, wat enigzins logisch is natuurlijk. Het merendeel van de omzet komt uit de low -en midrange kaarten :)
De HD2900XT en de 8800GTX / Utlra laten natuurlijk overkill scores zien, indien deze zouden worden getest.

Op mijn systeem met een 8800gtx liep het spel super.
nou een redelijk standaard ietsje oudere midrange kaart is toch die 7600gt.. en met 16 fps wil ik niet echt spelen :(
heb zelf een 7900gt dus ben al blij om te zien dat een anderhalf jaar oude kaartje die toen tussen midrange en highend zat het toch nog voor mekaar krijgt :P
Ietsje ouder midrange. Dus niet op 1600x1200 kunnen draaien is toch niet erg? Of ben ik een beetje achterhaald...
de test is gedaan op 1280x1024
http://www.ggmania.com/?smsid=24352
8600gt / s is volgens mij mid range.
Die HD2600 XT is zelfs nog sneller. En die heb je voor 120 euro of zo. Draait best goed moet ik zeggen.

Thuis hebben we ook nog een X800 Pro maar die heeft het wel erg moeilijk Mijn HD2900 XT toaal niet :P maar dat mag wel voor dat geld.

X1900 XTX draait 1680-1080 Perfect op max settings. De HD2900 XT doet dat op 1920-1200. Hoger gaat me scherm niet.
De requierment richt zich meer op de mainstream. Houd dus in dat het niet zo vooruitstrevend is kwa gebruik van tech niek.
DX10 voor performance ipv features.
en het boeid dan ook niet wie wat sneller is. aangezien mijn 8600GT al voldoet
En mijn HD2900XT daar ruim overheen gaat.

Crysis COJ DX10 die wel de hardware pushen en ook gebruiken daar is meer van belang wie de snelste is.

Daar kan de keuze tussen 'n HD2900XT / 8800GTS320/640 juist net boven speelbaar grens pushen. Met bepaalde settings.
En Video geheugen speeld daar vaak wel 'n rol omdat daar de lat hoger is gelegd .

COD4MW is ook zo een die meevalt kwa requierments.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True