Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties
Bron: X-Bit Labs

X-Bit Labs heeft wat info gepost over de GeForce3 kaarten van Asus en Elsa. Laatstgenoemde zal zijn kaart 'Gladiac 920' noemen, terwijl Asus volgende maand met de V8200 komt (voorheen was het nog V8800). Standaard zijn ze voorzien van de volgende features, zoals we die al eerder tegenkwamen:

The closer is the sacred day, 27 February, when the first graphics cards on nVidia GeForce3 chip (aka NV20), the more info on the new graphics products is leaking. We have already told you about Hercules 3D Prophet III, and today we’ve got some more cool details on the new GeForce3 based graphics cards from ELSA and ASUS. The card from ASUS will be called V8200 (and not V8800 as we have expected before). And ELSA will introduce its GeForce3 based offspring named GLADIAC 920. Here is a list of their features:
  • NVIDIA GeForce3 chip;
  • 350MHz RAMDAC;
  • 64MB DDR SDRAM (3.8ns memory chips);
  • 200MHz core and 460MHz memory frequencies;
  • 3.2Gtexel/sec theoretical fillrate;
  • AGP 2x/4x bus with FastWrites support;
  • TV-Out.

De adviesprijzen zijn begroot op $699 dollar, maar verwacht wordt dat deze met zo'n 100 ~ 150 dollar worden verlaagd tegen de tijd dat ze algemeen verkrijgbaar zijn. Over een dag of zes / zeven lees je als het goed is de eerste review van dit speelgoed .

Moderatie-faq Wijzig weergave

Reacties (70)

Na maanden wachten was hij er dan eindelijk ondanks de prijs van + 1750,- rendde hij naar de winkel om die nieuwe kaart te kopen. Instaleren, en jawel zijn framerate steeg van 140 naar 160 fps. Lekker boeiend. Ik wil maar zeggen, de tijd van niet of matig kunnen spelen ligt allang achter ons. Leuk dat je een kaart kan kopen die zo snel is en vooral ook heeeel knap gemaakt. Maar wat zie je van dat geld terug? word het zo langzamerhand niet een beetje overdreven?
* 786562 Wouter

Je hebt snelheid niet alleen nodig voor een hoge framerate. Gedetailleerde scenes met bergen polygonen, FSAA, bumpmapping en al dat soort dingen waardoor de "wow"-factor van een spel omhoog gaat zijn veel belangrijker.
* 786562 darthdrinker
if(niewe vidkaart == true)
{
wouter.buy_new_card();
}
else
{
cout << "waar blijft die nieuwe kaart van" *Favobrand;
}

nee echt heeeeeel intelligent om gewoon maar klakkeloos het nieuwste te kopen puur omdat het nieuw is.
ZO IS INTEL GROOT GEWORDEN! :)

ps.
alvast mijn excuus voor het geschreeuw. ;)
Punt is dat ik al vaak genoeg van dit soort +4 "inzichtvol" reacties heb gezien van mensen die alleen naar de framerate kijken.

Simpel voorbeeld, Quake draaide werkelijk perfect op een Voodoo 2 kaart, waarom zou je toen ooit nog een nieuwe kaart willen kopen? Probeer een paar jaar later Quake 3 maar eens te spelen, liep ineens lang niet meer zo lekker...

Ik zeg niet dat je altijd meteen elke nieuwe kaart moet kopen, en al helemaal niet dat ik dat doe, maar ik zeg gewoon dat dit soort vooruitgang wel degelijk noodzakelijk is. Spellen staan namelijk ook niet stil. (Max Payne, Halo, Doom 3, Decay etc. etc. etc).

Games worden ontwikkeld op de dikste computers die beschikbaar zijn, (dus ook met GF2 Ultra en GF3 kaarten), en men hoopt dan dat de mensen tegen de tijd dat het spel af is (duurt wel een paar jaar) deze hardware thuis hebben staan.
Ja idd, kijk als je dat dan direct zegt dan komen er ook geen misverstanden. :D
Want je eerste stukje kwam mij een beetje breandead over. ;)
Klopt, in 640x480 zal je framerate niet opzienbarend hoger worden. Het gaat echter bijna alleen om high res bij deze kaarten (GTS, Pro, ultra trouwens ook).

En juist in 1600x1200 en misschien zelfs nog wel hoger maakt het wel degelijk uit of je bijvoorbeeld een GeforceII-32Mb GTS hebt of een 64Mb Ultra hebt.
Ik moet toegeven dat in 1024x768 32bit en lager het verschil niet te zien is. Maar juist in bijvoorbeeld 1600x1200 was de GF-II Ultra maar liefst 60% sneller in 32bit dan de GeforceII-GTS 64MB. En dat merk je wel degelijk, een framerate van 33, dat loopt niet echt lekker in quake3, wel acceptabel, maar de hardcore gamer wil het gewoon "vet" hebben draaien, en dan zou je ongeveer 45+ fps moeten hebben in een timedemo play bij quake3.

Deze kaart zal dan ook weinig verschil en extra snelheid bieden voor de mensen die 640,800 of 1024 spelen. Deze kaarten zijn dan ook echt puur gemaakt voor de high res.

En 1600x1200 draaide op de Ultra al met meer dan 50fps in timedemo op een Athlon 900. Dus of je nu zult merken of je 50 of misschien wel 70 fps in 1600x1200 hebt, dat is waarschijnlijk dus niet. Ik zie dan ook niet echt een reden waarom men deze kaarten maakt. Ik bedoel, wat wil je nog meer als je al 1600x1200 met alles op hoogst vet kan draaien?

Kwaliteit en geen vage pixels, hopelijk hebben ze (vooral) deze ader in het gras verwijderd. Specs zeggen voorlopig nog niet veel zoals je kunt zien, je zou bijna denken dat het een GF-II Ultra is.

Vooral omdat deze kaarten juist moeite hebben nog steeds een scherp beeld met een niet hogere (lijkende) dotpitch te leveren, zouden ze juist hier wat aan moeten veranderen, DAN zou dit echt een goed alternatief zijn voor alle ATI kaarten, maarjah, time will tell!
Maar ik denk dat de meeste mensen tegenwoordig nog geen monitor hebben staat die 1600*1200 kan draaien want dan zit je toch al op 19 Inch
17" monitoren kunnen vaak makkelijk 1600x1200 aan. Denk aan de Yyama A702HT, maar ook voor F700,- (CTX) heb je al monitoren die 1600x1200 aankunnen, en zelfs al met een acceptabele refreshrate.

Maar dat neemt niet weg dat veel mensen zo'n monitor nog niet hebben, en dat is weer een factor waarom je de NV20 eerder kunt afwegen. Want een GeforceII-64MB GTS draait tot 1280x1024 met texture detail op zijn hoogst nog prima.
17" monitoren kunnen vaak makkelijk 1600x1200 aan. Denk aan de Yyama A702HT, maar ook voor F700,- (CTX) heb je al monitoren die 1600x1200 aankunnen, en zelfs al met een acceptabele refreshrate.

Maar dat neemt niet weg dat veel mensen zo'n monitor nog niet hebben, en dat is weer een factor waarom je de NV20 eerder kunt af
Het ligt er maar aan wat je speelt.
Het wordt een keer tijd dat de games naar een hoger (grafisch)niveau worden getild, daar is nieuwe hardware onvermijdelijk voor.
Dan heb ik het over 100.000 polygonen of meer, en dus niet die eeuwige flutterige kleine 256x256 textures.
Kijk dus een beetje vooruit, naar MaxPayne, dat spel van Crytec, Halo, Return To CastleWolfenstein Doom3 ;) ect. die kunnen wel wat horse power gebruiken.
Sterker nog, als ik Team Arena speel, heeft m'n Radeon het soms knap moelijk op sommige momenten in 1024x768x32 detail max..vanwege de grotere geometrische omgeving in TA.
Precies... het was altijd zo dat de hardware achter de software aanliep, maar nu is het andersom. Ik kan nu quake3 in 1600x1200 spelen en dat vind ik persoonlijk(!) vloeiend draaien met Tbird900@1000 en ASUS7700

Ik wil een spel dat er in vergelijking met UT, Halflife en Q3 verschrikkelijk goed uitziet en wil ook dat het nog net speelbaar is op 800x600.

DAN heb ik pas een stimulans om snellere videokaarten & CPU's te kopen...

Nu heb ik echt iets van: laat maar even, prijzen zakken en ik heb er geen zak aan...
Tuurlijk heet die ASUS niet V8800 maar V8200. Daarna moeten namelijk nog de ultra, de extra en de dubbel extra ultra uitkomen met de namen V8400, V8600 en V8800. Let maar op.
Niet altijd wordt de versie verhoogd daar is vaak wat extra's voor nodig.

3400 TNT
3800 TNT2
6600 Geforce SDR
6800 Geforce DDR
7100 Geforce 2 MX
7700 Geforce 2 GTS, PRO, ULTRA (Deluxe)

Daar is niet perse een hoger nummer voor nodig.
Wat we wel kunnen hopen is dat het hier "slechts" om een MX variant gaat. Al zou dat erg vervelend zijn voor de prijzen van de snellere broertjes.

Het zou kunnen wat je zegt, en ik hoop ook dat je gelijk hebt :*)
Waarom zeurt iedereen altijd over die prijs,
als je het niet kunt betalen,heb je pech gehad.
hoeveel mhz ramdac hadden de eerder GeForcen eigenlijk ? ik heb namelijk geen idee of/hoe dit omhoog is gegaan... maar dit is toch een erg belangrijk aspect mbt de beeldkwaliteit
Hadden/hebben ook 350Mhz RamDAC dus iets van 2048x1536@75Hz mogelijk

De beelkwaliteit wordt al snel minder bij die GeForces .. wel kraakhelder op 1280 ...
(bij mij wordt ie al zichtbaar vager op 1600x1200
en 2048@60Hz is zeer onscherp)

Maar dat heeft nix met de ramDAC te maken
Dan pas..
Ik zie het beeld hier zichtbaar slechter worden met 1152x864 @95Hz.. (ASUS V7700 Pure)

Ik vergelijk het dan met een VooDoo3.
Denk ook eens aan de dot-pitch van je monitor die mee gaat spelen bij dit soort resoluties.
Hoe verklaar je dan dat ie het wel met de geforce heeft en niet met de voodoo3 |:(
Door de output filters en aardige dingen op de kaart die het signaal distorten.
En dit veroorzaakt netto meer ruis en quality loss dan bij (zijn) Voodoo3 blijkbaar
Mijn 1280x1024@100Hz draait mijn GeForce2 MX strak ... daarboven minder ..t viel me pas op toen iemand mij erop attendeerde ... kben ook niet zo'n graphix man ..
hee maxi ;)
Als je beeldkwaliteit achteruitgaat dan heeft dat toch meer met de filters op je kaart te maken,
dan met het aantal Mhz'en van je RAMDAC of niet dan... ;)
Tsja, volgens mij is de slechte 2D kwaliteit bij de geforce familie afhankelijk van het slechte filter dat erop zit... Heeft errug weinig met de ramdac te maken.
Beeldkwaliteit heeft juist wel alles met de ramdac te maken!

De kwaliteit van deze schakel is van erg groot belang. Het beste zou zijn om de ramdac in een losse chip te hebben, echter worden de kosten hierdoor te hoog.

Voor de ramdac is het signaal digitaal, hier treed geen storing in op, echter nadat het analoog gemaakt is, is het erg gevoelig voor storingen.

Dan zie je ook een voordeel bij de flatpanels met digitale ingang, hier wordt het hele analoge circuit overgeslagen.

De invloed van snelheid van de ramdac hebben anderen hier al uitgelegd :)
de ramdacs zijn nix sneller geworden
maar hoezo wordt jouw beeldkwaliteit beter van ramdac sneller dan 350 MHz ? dat snap ik niet helemaal...
Op hoeveel Mhz je RAMDAC(RD) loopt is niet echt interresant. Zolang het maar ong boven de 300 Mhz is.
Je RD zorgt voor je verversings snelheid van je monitor. Of liever, zorgt ervoor dat er genoeg data is voor je monitor zodat ie op een bepaalde freq. kan refreshen. Met een 350 Mhz RD kun je volgens mij iets van - [zie Mr.Aargh ] - halen.
Het heeft iig NIKS te maken met de snelheid of de beeldkwaliteit van je kaart. Dus dit is niet echt een interresant onderdeel v/d kaart denk ik. :)
De ramdac is op zich inderdaad niet echt interressant ze zijn toch snel zat, maar denk dat vele mensen met mij balen dat de geforce kaarten op hoge resoluties slecht beeld geven.

Ik hoop dat bij geforce3 kaarten dit probleem niet meer voorkomt.
Dan zal er wel een AGP 8x komen. ( + f 200,- ofzo)
Effe "appels met peren" vergelijken:

AGP 8x zou net zoiets zijn als ATA200 ofzo...

Is het nieuw?
- Ja
Is het stoer?
- Ja (?)
Is het nuttig?
- Nee, want de vorige standaard was al snel genoeg.

Maar ik zou nou ook weer niet willen zeggen dat het een nutteloze vinding zou zijn, alleen dat het te vroeg zou komen.
Snel genoeg? Volgens mij wordt het pas snel genoeg als het dezelfde bandbreedte heeft als het lokale video geheugen 7,3Gbs ofzo. Hetzelfde wat ze nu doen bij de Xbox en de PS2. Dan kan je direct uit het geheugen fetchen (stel je voor 512mb aan geheugen voor textures). Overigens moet je dan wel heel high performance geheugen hebben natuurlijk.

Je hebt wel gelijk als je bedoelt dat de huidige generatie kaarten het toch niet gebruikt, dat klopt. Maar dat komt omdat het eigenlijk te langzaam is :'(
En er zit genoeg geheugen op de kaarten 32Mb dadelijk 64Mb ... en AGP was goede ontwikkeling als gamedevelopers er vanuit konden gaan hoeveel er in het AGP memory kon worden gestopt (vaste amount)
En dat soort dingen .. nu is het niet echt usefull behalve dat de AGP kaart een dedicated slot heeft (ontlast de PCI-bus wer .. hehe)
Snel genoeg? Bestaat dat?
Die komt er wel ja, maar dat duurt nog wel een jaar of twee. Een snellere AGP bus zou op dit moment toch maar een zeer minimale performancewinst opleveren.
dat is niet nodig, omdat zelfs de GeForce2 nog niet eens AGP4x benut, maar met AGP2x ook nog de zelfde prestaties leverd
AGP wordt hoofdzakelijk gebruikt om textures van je systeem RAM naar je grafische kaart te sluizen. Aangezien de bovengenoemde kaartjes 64MB hebben zal AGP nagenoeg niet gebruikt gaan worden. Immers, alles past in die 64MB.
Maar goed, stel dat je zoveel textures gebruikt dat AGP wordt aangesproken dan kan AGP ze nooit met een goeie snelheid leveren (de AGP bus is veeeeel te langzaam), hetgeen leid tot een hakkelig schermopbouw.
Lees ik over textures van 4096x4096? Misschien domme vraag, maar daar past mijn desktop 12 keer in. Heeft dit zin, dan?
Ja dat heeft het, alles word scherper nu kan je 12x inzoomen op je desktop zonder kwaliteitsverschil te merken, lees minder pixel vorming
Ja.. lijkt me een beeetje overdreven.. behalve als je een scherm met een diameter van 1 meter hebt..
Je krijgt overigens wel een heeeel scherp beeld als ze die resolutie in een 21"-scherm proppen :9 maar dat zal wel niet te doen zijn.
Het geeft wel een mooi beeld van de performance :)
Probeer eens CMR2 op 1024x768 of hoger met CUBIC mapping te spelen dan wil toch echt wel meer dan een GF2
<off:topic>
De renderengine van CMR2 performed erg slecht. Kijk naar games als Unreal of Quake 3, daar wordt veeeel meer op het scherm getekend. En die lopen erg goed op een nVIDIA TNT. Terwijl je als je de resolutie bij CMR2 ook maar iets opschroeft, gaat de performance drastisch achteruit.
</off:topic>
volgens mij is er een recht evenredig verband tussen de bandbreedte en de prijs.

525x3=1575!

dat komt toch heel dicht in de buurt :P
Waarom zijn videokaarten de enige pc-related produkten die met elke nieuwe generatie niet even duur zijn, maar duurder dan zijn voorganger...
Omdat er steeds meer en duurder geheugen opgaat.
tja.. het enige probleem dat nVidia nog steeds heeft is dat er geen 2 monitoren op aangesloten kunnen worden.. tenminste.. fatsoenlijk.. die TV-out is ook niet alles. Okee.. nVidia wint het nu echt tegenover Matrox, maar je kunt er nog geen 2 monitoren op aansluiten.. als ze dat nou eens zoeken ipv snellere gpu's.. gewoon een kaart met dual vga-out.. daar kunnen we weer wat mee.. en dan moet asus ook maar meteen een A7V133/RAID met dual AGP slot op de markt brengen.. dat zou dan weer kikke zijn.. gewoon 4x 21" monitor op je bureau.. niet dan?! daar kunnen grafisch ontwerpers toch weer wat mee?!

eerst een keer een DUAL kaartje ontwerpen.. dan verder met snelheid.. die dingen zijn nu toch al snel genoeg.. tenminste.. ik merk niks tussen mijn vroegere V7700 deluxe en mijn huidige V7700ultra..
"ik merk niks tussen mijn vroegere V7700 deluxe en mijn huidige V7700ultra"
Hmmppfff. Slachtoffer van de marketing machine misschien?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True