Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: Sharky Extreme

Sharky Extreme brengt ons als eerste de info over de nieuwe nVidia GeForce2 Ultra chip. Om nog meer performance uit de GeForce2 te persen is deze Ultra variant gemaakt via een speciaal TSMC .18 micron GX process. De core speed is wat verhoogd naar 250MHz en het 4.3ns 64MB DDR geheugen is op 230MHz geklokt waardoor de memory-bottleneck voor een groot deel is verdwenen:

Yes, that's right, a 250MHz core clock matched to 230MHz DDR SDRAM. The GeForce2 Ultra's core is the same as the GeForce2 GTS', so it contains four pixel pipelines each capable of rendering one pixel per clock with two textures per pixel. Four pixels per clock at 250MHz gives you a one gigapixel per second fill rate. And at two textures per pixel, we're talking a two gigagtexel per second texel rate. Ladies and gentlemen, that's fast! TSMC's .18 micron GX process is a newer process technology, which apparently enables NVIDIA to push their GeForce2 architecture a bit further.

And backing up the blazing fast GPU core is 64MB of 200MHz DDR SDRAM. According to NVIDIA, that's the fastest DDR SDRAM memory available on a consumer product today. With the equivalent of 460MHz memory running on a 128-bit memory bus, the GeForce2 Ultra carries an astounding 7.4 gigabytes per second of memory bandwidth. That's faster than a four PC800 RDRAM channel system! With such a stunning amount of memory bandwidth, the GeForce2 Ultra is sure to run like no other card before it at 1600x1200 and beyond.[break]In de 23 pagina's tellende review is de GeForce2 Ultra zeer uitgebreid gebenchmarked op 1GHz P3 en Athlon systemen. Het verschil met de 'gewone' GeForce2 GTS loopt toch vrij aardig op naarmate je in high-quality boven 1024x768 gaat draaien. In 1600x1200 zijn verschillen van 40 á 50% gemeten! Voor deze opgefokte GeForce2 moet je wel heel wat knaken neerleggen aangezien het ding in Amerika al $500 dollar gaat kosten. Duidelijk is wel dat je de allersnelste kaart in je comp hebt hangen, en aangezien de 3dfx Voodoo5 6000 er nog steeds niet is en er geruchten gaan over een delay van de NV20 zou dat ook wel een tijdje zo kunnen blijven...[/break]So another six months has gone by and a new “refresh” by NVIDIA keeps their six month cycle going in a roundabout way. NV20, the Geforce2 Ultra isn't, but then again, with the new Detonator 3 drivers, a new GX .18micron process enabling a 250MHz core and faster RAM we have yet another new speed champ in the 3D gaming department. The Ultra isn't for everyone but if you've got $500 looking at you with those “please spend me” eyes, you're going to end up owning the fastest 3D accelerator this side of the Endor moon. Just don't expect miracles if you already own a GeForce2 GTS. Remember it's essentially the same technology, with newer drivers just dressed a little differently in fans and heat sinks. You'll only notice a difference if you have a 19+ inch monitor and play games at 1280x1024 and above.

If it's new technology you're after, then you're going to have stash that “please spend me” $500 back under the mattress (hidden well away from any landlord or partner) until Microsoft releases DirectX 8 along with its new set of buzzwords. The delay to DX8 has of course meant that NVIDIA really has no stage for NV20 (probably fully DX8 & “buzzword” capable thanks to X-box). With no DX8 games out yet or in the horizon this year (is that why so many games are being delayed then?), NVIDIA has done the right thing by releasing Detonator 3 drivers and eking out that bit more from NV15.
nVidia GeForce2 Ultra

Bedankt hjs voor de tip!

Update

Inmiddels is de review weer van de frontpage van Sharky Extreme gehaald, omdat ze de NDA (Non Disclosure Agreement, zeg maar het embargo op nieuwe hardware) heeft gebroken. Dat vond nVidia niet leuk, en dus zul je nog even moeten wachten. Op dit moment is de review nog wel te lezen door direct de link in dit artikel te volgen.

Moderatie-faq Wijzig weergave

Reacties (45)

He ik was net op de NVIDIA site en volgens mij lijkt de picture van deze "Geforce2 UItra" verdacht veel op die van de Quatro2 pro zie: www.nvidia.com/Products/Quadro2Pro.nsf

Dat is toch niet dezelfde kaart ofwel
vergis ik mij nou
Ja dat is gewoon hetzelfde plaatje... Kijk maar naar de buigingen van de draadjes voor de fan.
Ik vind dat FSAA er wel degelijk toe doet in een dergelijk review. nVidia zegt dat ze het hebben en aangezien het geheugen een ernstige belemmering is voor de prestaties is het errug interessant om te weten hoe een dergelijke kaart het ervan af brengt. Jammer is dat ze niet de Radeon hebben gebruikt om te vergelijken omdat deze de GF2 in de hogere resoluties eruit blaast. Dit zou veel meer duidelijkheid geven of deze kaart bestaansrecht heeft t.o.v. de competitie. Dus ik ben het erwel degelijk mee eens dat dit review niet compleet is.
Ik heb net voor de zekerheid de hele site (de review) geswiped, plaatjes en text. helaas azit ik op me werk dus ik heb word even snel als editor gebruikt,
als iemand een gratis webhoster voor me heeft knikker ik em on line
Dit is dus eigenlijk weer hetzelfde als toen met de TNT2. Je had toen een TNT2 normaal en een TNT2 Ultra. Persoonlijk heb ik eigenlijk weinig gemerkt van enige perfomancewinst toen.
En ik ben ook bang dat het nu ook weer weinig uitmaakt.
Voor de rest denk ik ook niet dat die bottleneck met het geheugen nu verdwenen is.
Dat zou dus betekenen dat ze binnen een paar maanden alweer een oplossing bedacht hebbben. En dat lijkt me zeer onlogisch
Dit is dus eigenlijk weer hetzelfde als toen met de TNT2. Je had toen een TNT2 normaal en een TNT2 Ultra. Persoonlijk heb ik eigenlijk weinig gemerkt van enige perfomancewinst toen.
Beetje kort door de bocht en appels en peren vergelijken. De test laten zien dat de performance een stuk beter is.
Voor de rest denk ik ook niet dat die bottleneck met het geheugen nu verdwenen is.
De snelheid is verhoogd dus is de bandbreedte vergroot dat resulteerd dus erin dat de bottleneck voor een deel is weggenomen.

Willen ze nog sneller dan is Rambus misschien een oplossing. Deze kunnen ze tot 800 MHz benaderen.
Dit is dus eigenlijk weer hetzelfde als toen met de TNT2. Je had toen een TNT2 normaal en een TNT2 Ultra. Persoonlijk heb ik eigenlijk weinig gemerkt van enige perfomancewinst toen.
En ik ben ook bang dat het nu ook weer weinig uitmaakt.
Als je de benchmarks hebt gezien dan weet je dat deze kaart een flink stuk sneller is, dus als je die nou in vervolg eerst bekijtk voordat je zegt dat het vast niet zoveel uitmaakt.....
Willen ze nog sneller dan is Rambus misschien een oplossing. Deze kunnen ze tot 800 MHz benaderen.
Zoals ook in de review van sharky wordt gezegt heeft dit ddr geheugen een bandbreedte van 8 gb/sec, daar komt rdram niet eens een klein beetje in de buurt. (ps. pc800 rambus geheugen loopt niet op 800MHz...)
Zoals ook in de review van sharky wordt gezegt heeft dit ddr geheugen een bandbreedte van 8 gb/sec, daar komt rdram niet eens een klein beetje in de buurt. (ps. pc800 rambus geheugen loopt niet op 800MHz...)
Beetje (veel) onwaar:

Direct Rambus (DRDRAM) provides a two-byte (16 bit) bus rather than DRAM's 8-bit bus. At a RAM speed of 800 megahertz (800 million cycles per second), the peak data transfer rate is 1.6 billion bytes per second. Direct Rambus uses pipelining to move data from RAM to cache memory levels that are closer to the microprocessor or display. Up to eight operations may be underway at the same time. Rambus is designed to fit into existing motherboard standards. The components that are inserted into motherboard connections are called Rambus in-line memory modules (RIMMs). They can replace conventional dual in-line memory module.

I REST MY CASE!!!
Leuk, alleen ik blijf sceptisch, is die bottleneck wel echt verdwenen, kan iemand dat even uitrekenen zoals in vorige postings?

Feit blijft dat nvidia op juiste tijden met nieuwe modellen uitkomt. Kwamen Ati en 3dfx net een klein beetje bij nvidia in de buurt, releasen ze weer een nieuwe kaart, beter getweaked, en hoppa, weg concurrentie.
Als vervend Voodoo liefhebber (heb een banshee) wacht ik met smart op de Voodoo5 6000 en de vergelijkingen met de stal van nvidia, een echte deathmatch :9
Seeing that post on TWEAKERS, where else!
Ja en juist omdat de concurentie zo snel weg gevaagd worden blijf de prijzen zo hoog... 800,- vind ik wel het maximum hoor...

"vroeger" toen er nog genoeg concurentie was , betaalde je niet meer dan 600,- grof geschat voor een High end Game card...

Ik hoop dat er snel een vergelijkbare chip van een ander merk komt anders hebben we een probleem als consument.

ik bedoel nu kiezen de meeste "low" end machine bouwers voor een tnt2 "mid" end.. een Geforce 256..SDR. "High" end een Geforce2 GTS en nu ook al een Ultra high end kaartje.. .wel gaaf natuurlijk, maar ik maak me zorgen over de prijs ! $500,- is een boel !
Iedereen zit altijd te zeuren over de hoge prijzen, maar de eerste voodoo1 kaart was ook 300 dollar (dat is hetzelfde als een geforce DDR, GeForce2 bij introductie) en een voodoo 2 SLI was nog duurder....

Oke het is zo dat de kaarten soms ook wat goedkoper zijn geweest maar om nu te zeggen dat dure 3d kaarten iets van de laatste tijd is, na dacht het niet.
Een deel van de prijs valt natuurlijk te wijten aan de dollar koers van tegenwoordig maar een voodoo2 was echt geen 400 piek, bij introductie was de 12 mb versie ruim 600 piek (ik heb geloof ik 450 betaald voor de 8 mb versie).

En imho mag je een sli systeem best meerekenen, dat is een product als de catergorie geforce2 ultra, voodoo5-6000 waarbij het enigste verschil is dat het bestaat uit 2 plankjes.
hmm nou, dat was dan waarschijnlijk alleen bij de introductie, want ik heb vrij snel een monster 1 gekocht en betaalde toe 400 gulden, en toen de voodoo II uitkwam heb ik die gekocht, ook voor rond de 400 gulden. En je kunt het natuurlijk niet met SLI gaan vergelijken, want dat zijn twee kaarten. Nu betaal je 800-1000 piek voor een nieuwe GForce2 vind ik toch een flink verschil, dat zijn meer prijzen voor professionelere kaarten.
Ìk heb vlak na de intro bijna 700,- betaald voor mijn voodoo2 (12MB monster2 :) En reken maar dat ik er blij mee was maar $500 (ffies soepeltjes gerekent.. 1200,-) vind ik toch wel een beetje heel erg veel.. Maar ik denk dat dit alleen is om in de hogere resolutie beter te zijn dan de eerst uit-komende directe concurent (Ati Radeon). Het staat gewoon beter voor het huidige imago van Nvidea om de absolute snelheids-leider te blijven (zoals 3dfx een tijd is geweest).. De prijs zaql echter voorlopig wel hoog blijven omdat ook voor Nvidea deze kaartjes waarschijnlijk pittig geprijst zijn om te maken .. Het zal een zelfde soort (pr-)aktie zijn als wat intel doet in de strijd met AMD.. Zorg dat je sneller bent ongeacht wat... Dat intel pas laat reageerde op het sprintje wat AMD trok heeft intel (behoorlijk) markt-aandeel gekost, en ik denk dat Nvidea daat dus echt geen zin in had en zeker niet aan ATI
Nou het kan aan mij liggen maar de in tests die ik lees is het toch echt de GKRACHT die met FSAA sneller is dan V5500. En als je naar de snelheid van FSAA kijkt dan moet je natuurlijk ook niet alleen naar 1024*768 kijken dat is inderdaad sloom. Maar FSAA is NU nog bedoeld voor lagere resoluties en in 800*600 32 bits met FSAA kun je Q3A heel goed spelen hoor!
Even een reactie over die hoge prijzen van tegenwoordig... Met een Geforce MX die niet zo duur is haal je framerates waar je vroeger van kon dromen. Wat moet je nu met framerates van 100+, het enige voordeel ervan is dat zo´n kaart wel een tijdje meegaat maar degene die ´m zullen kopen zal dat een worst weten want die hebben ook meteen de NV20, Voodoo6 wanneer deze uitkomt. Oftewel de echte snelheidsfreaks...
Verder vind ik de stelling dat als je een 19´´monitor kan betalen dat deze kaart ook wel affordable is nergens over gaan. Een 19´´monitor van een beetje kwaliteit kost waarschijnlijk net zoveel in DFL als deze kaart en een monitor van zo´n formaat gaat toch zeker wel 5 jaar meee dus....
En dan nog die Radeon: die is helaas nu wel weer een tikkie trager want die kwam maar net bij de vorige geforce in de buurt (na nieuwe nvidia drivers ook niet meer btw.)

Ik waqcht met smart op de g800.....
Nou, ik vind het wel interessant, niet zozeer voor de 100 FPS, maar juist door dat feit kun je weer een resolutie hoger gaan.

Ik bedoel, ik heb een 19" (Iiyama Vision Master Pro 450) en daarmee kan ik prima op 1600 X 1200 gamen, maar de kaart die Quake 3 met alles op Max speelbaar kan weergeven op 1600X1200X32 kan weergeven is deze dus. (bijna 60 FPS)

Als je idd maar een monitor hebt die fatsoenlijk tot 1024 X 768 gaat, kun je met al die performance weer kiezen voor FSAA, wat alles weer strakker maakt.

De Game-engines worden toch steeds strakker, en daardoor zwaarder voor je videokaart, dus als iets een goede, dikke performance heeft, is dat ook nooit weg voor de toekomst. Heb je toch nog een beetje rendement van je investering van 1100,- ...

Persoonlijk hou ik wel van alle Eye-candy, en zet ik alles op Max, en des te hoger de resolutie des te beter.

Goh, de eerste kaart die gamen op 1600X1200X32 echt speelbaar maakt...
Het spijt me zeer, ik heb het gelezen en ik vind het een "mager" review.. veel pagina's maar juist de interesante dingen zoals FSAA en nog meer van balang zijnde features worden niet eens besproken.... Quake testen ... ???? jammer..
damn ,maar wachten op een volwassen review

Update

Zie je wel.. die kaart is wel leuk maar qua FSSA is het nog steeds niet goed :( veel te traag word ie dan.. echt jammer hoor... maar die van Hot hardware dat noem ik pas een review !! petje af heren, wel jammer dat ze geen Ghz cpu hebben genomen, gewoon snelste video kaart en snelste cpu... lijkt me leuk om zelf te testen... hehehe
Wacht maar tot die NDA voorbij is (9 AM eastern time) ben op verschillende forums aanwijzingen tegengekomen van de webmasters :)
bv. dus 3DGPU, NVNEWS en als SHARKY hem heeft zal hij ook bij TRESH en TOM zijn dus reviews zat over een klein tijdje :)

weet alleen niet hoelaat het nederlandse tijd is :(
NDA is voorbij
nvnews, tom, tresh en weet ik veel wie nog meer hebben een preview van dit kaartje :)

en wat ik tot nu toe gelezen hebben zijn ze allemaal erg positief, eind september moet ie verkrijgbaar zijn :)

allemaal heel hard sparen }>
Ik snap je probleem niet, de enige feature die deze kaart onderscheid van een geforce2 is de snelheid.... dus dat is ook wat ze gaan testen. Als je graag alle info over fsaa en texel shaders etc wilt hebben moet je gewoon een geforce2 review lezen. Zelf vond ik deze review erg compleet en goed.
Rene vd Veen:

Rambus is geen oplossing, de lantancy is veeeeel te hoog voor op zo'n videokaart. En daar komt bij dat PC800 rambus ook nog een lagere bandbreedte heeft. (1,6 GB/s tegen 1,840 GB/s (of is het 3,680?)).
Rambus heeft inderdaad een lagere toegangstijd ja. Maar de bandbreedte is wel degelijk VEEL groter dan die van DDR. Zie mijn vorige posting. De bottleneck komt nu doordat ze het geheugen niet sneller aan kunnen spreken. Dat is dus op te lossen door Rambus. Ik zeg en weet niet of het haalbaar is maar de toekomst zal het uitwijzen. Maar PC800 Rambus kan op 800 MHz benaderd worden. Nu is daar nog geen bus voor maar die zal ongetwijveld nog wel ontwikkeld worden.
FOUT rené,

Ik heb je al eerder gepost dat Rambus zo niet werkt.
1) 800 MHz: dat is de snelheid van de Rambus Channel; als de data aan het andere einde van de bus aankomt moet een memory controller de data ergens heenduwen. Het is pertinent NIET zo dat als je aan de andere kant van de memory controller een snellere bus hebt, dat dan ook Rambus sneller is/wordt
2) Bandbreedte: bandbreedte is GEDEFINIEERD als busbreedte maal frequentie maal datarate, bij Ramsjbus 2 byte x 400 MHz x 2 (DDR) = 1,6 GB/s, bij PC700 en PC600 zefs nog VEEL minder. Gewoon DDR doet 64 bits breed, laten we zeggen 100 MHz, en dan is het dus 8 bytes x 100 MHz x 2 (DDR) = 1,6 GB en da's voor de langzaamste versie van DDR al net zo snel als voor de snelste versie van Ramsjbus. En als ik de review goed lees, dan zie ik 200 MHz DDR-geheugen (en niet 100 MHz doublepumped, maar echt 200 MHz doublepumped) goed voor 3,2 GB/s. Ramsjbus is daar nog lang niet!
3) geheugen snel aanspreken: SDRAM (en dus ook DDR-SDRAM) kent het principe van Critical Word First, ofwel in de eerste golf van 8 data bytes die terugkomt uit het geheugen zit de byte die de processor oorspronkelijk vroeg. Daar kan'ie meteen mee aan de slag, ook als de CPU maar gelijk een data burst heeft aangevraagd. Bij Ramsjbus kan dat NIET, omdat alle data daar altijd per packet van 16 byte wordt verstuurd, en de memory controller er pas wat mee kan als het HELE packet van 8 clockwaves (4 clock ticks) is binnengekomen. Dat verslechterd de latency nog eens extra.

Ramsjbus is prima voor bepaalde applicaties (zoals de PS/2) maar het is gewoon slecht voor PC hoofdgeheugen, en volgens mij ook slecht voor videokaarten.
In deze review ook erg veel over de nieuwe detonators (6 serie) die ook een flinke snelheids winst geven :)
Toch wel grappig dat de review nog niet op de hoofdpagina van Sharky vermeld staat omdat de NDA op 9 AM eastern time staat :)

kwam een link tegen in het forum van 3DGPU }>
dus als Sharky mailt waarom opeens al dat verkeer hier vandaan komt weet je waar ik het nieuwtje gevonden hebt ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True