Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: Planet Hardware

Planet Hardware heeft alle beschikbare informatie over de nVidia NV20 GPU bij elkaar geharkt en daar een leuk artikel van gebakken. De eerste 'GeForce3' videokaarten zullen waarschijnlijk in maart op de markt verschijnen, en niet alleen supersnel maar vooral superduur worden. Ten opzichte van de verschillende GeForce2 varianten zijn de specs (corespeed / fillrate) niet eens zo gek veel verbeterd, maar zal de NV20 deze wel veel beter kunnen benutten. Waarschijnlijk via nieuwe features zoals hardware Hidden Surface Removal en andere bandbreedte besparende middelen. Daarnaast wordt de NV20 de eerste programmeerbare GPU zodat spelontwikkelaars pas echt de trukendoos volledig kunnen benutten. Hieronder heb je vast een kleine quote uit het verhaal:

Instead of the usual frequency increase for increased performance, NVIDIA will keep the number of transistors on the NV20 down while utilizing a 0.15-micron manufacturing process (Riva3D reports anywhere from 0.13 - 0.15 micron). The 0.15-micron houses 60 million transistors, allowing it to run faster and cooler than previous NVIDIA chipsets - as well as offering increased structural design efficiency.

The GeForce2 graphics core closely reflects what we should be seeing in the basic NV20 technology, however with increased pixel pipelines and textures/pipeline. The Potential pixel fillrate of the NV20 also equals that of the GeForce2, but increasing this is not the goal of the NV20. What we're seeing as a problem with the GeForce2 in today's games is the effective "real" fillrate in accordance with the local memory bandwidth (a problem that has plagued NVIDIA since the release of the GeForce256). Many of the features that have been added to the GeForce2 core to create the NV20 address this problem, which should make higher resolution gaming even more viable than it is today.
nVidia NV20 beta kaart
Moderatie-faq Wijzig weergave

Reacties (37)

Nou het zal mij benieuwen wat straks het verschil is met de Geforce GTS Ultra is in de vele tests die we weer voorgeschotelt krijgen. B-)

En ik denk dat er op 2D kwaliteit van een grafische chipset er niet meer zoveel uit te halen valt, dit staat of valt ook bij wat voor merk en type monitor je hebt.

Alhoewel de prijs van deze kaarten astronomisch hoog zal zijn. ;(
En ik denk dat er op 2D kwaliteit van een grafische chipset er niet meer zoveel uit te halen valt, dit staat of valt ook bij wat voor merk en type monitor je hebt.
Daar doet een chipset niet zo gek veel aan hoor, de 2d kwaliteit wordt voornamelijk bepaald door de gebruikte componenten op de kaart (mn RAMDAC).

En daarbij, hoe beter je monitor, hoe meer de brakke 2d capaciteit van je kaart opvalt. Vandaar dat 2d kwaliteit nu juist WEL steeds belangrijker wordt, mensen stappen over op grotere (en ook betere) schermen, dus hogere desktop resoluties en juist dan gaat de mindere kwaliteit van de kaart parten spelen. Het is een wereld van verschil of je een 15" 1024x768@70Hz aanstuurt of een 21" op 1600x1200@85Hz, daar heb je toch echt een behoorlijke kaart voor nodig.

Zie het net zoals snelheid van het geheugen van een kaart in 3d. Dat boeide een jaartje of 4 geleden nog niet eens zo gek veel, de proc op de kaart was toen nog lang niet snel genoeg zodat de snelheid van het gebruikte geheugen niet eens zo gek veel uit maakte. Met de huidige generatie GPUs is een flinke stap voorwaarts gemaakt zodat goed presterend geheugen doorslaggevend is geworden voor al dan niet goed functioneren.

:z :Z :z
Hoop dat je niet in slaap bent gevallen ;)
Ben ik het niet mee eens. Ik heb een G400 en m'n huisgenoot een GF2MX. Dat 2d beeld van die MX is echt te triest voor woorden. Ik zit toch 70% van de tijd naar een 2d beeld te kijken. Die andere 30% zit er aan te denken om een Radeon te kopen, en absoluut gn MX.
Na lijk me een beetje raar.
Ik heb een MSI geforce 2 MX en een Hansol 17
n op de lan kom ik toch met een van de mooiste beelden te voorschijn.
Mischien licht het aan het merk van de MX kaart.

:+
Ik vind het met een woord "vreemd" waarom ze WEER bijna alleen aand8 besteden aan de fps.

De ultra is de max en daar kun je Quake3 met alles op zijn hoogst 32bit color/textures in 1600x1200 op draaien.

1. Dat is de max en die draait geweldig met een redelijk Athlonnetje.
2. Je mag al blij zijn als monitor dat aankan, en zoja of zijn refreshrate nog acceptabel is.
3. De kwaliteit is (zeker in 1600x1200) met een woord "vaag". Het lijkt wel of je dotpitch opeens hoger wordt in 1600x1200.

En als je 1600x1200 al "vet" kan draaien met alles op zijn hoogst, en je kunt het texture detail ook niet hoger zetten en het ziet er al "perfect" uit (buiten de kwaliteit van het beeld zelf :))

-Wat wil je nog meer?

-Goede kwaliteit van het beeld zelf vooral in 1600x1200.
-Acceptabele prijzen.

Conclusie, ookal is de 2d kwaliteit en de beeldkwaliteit in de allerhoogste resoluties perfect, nVidia kan onze behoeften nog steeds niet bevredigen. Als de verkoop door de MX toch zo goed gaat kopen ze toch licenties van ATi om dezelfde 2d kwaliteit "engine" te gebruiken.
Vraag me af over ook iets bekend is over de 2D kwaliteiten, het lijkt wel sinds de verschijning van de voodoo serie en daarna geforce, dat 2D op een laag pitje is gezet. Alleen de frames per seconde tellen nog ;(
Voor 2D kan je volgens mij nog het beste bij Matrox terecht. :D Superstrak beeld, ideaal voor photoshop e.d.
Wil je echter gamen, kies dan toch maar voor Nvidia.
Je mag je wel afvragen of de videokaarten zo extreem duur moeten worden als nu zo langzamerhand het geval is. De gemiddelde gamer kan ook nog steeds prima met een Gf 2 MX uit de voeten. Kost maar zo'n 350.
Voor de Die hards, laat de kaart maar komen. Levert voor de GF 2 kaarten vast prijsverlagingen op.
En de 2Dkwaliteit van ATI
heb je goeie 2d en 3d
of als je 3d niet belangrijk vind matrox
Idd Geef mij maar na de prijsverlagingen de GeForce2 GTS!
Even een groot misverstand uit de wereld helpen:

Voodoo3 series hebben een vrij goede ramdac.
Betekent? Scherpe 2D kwaliteit!
Voodoo3 3000 heeft een 350 MHz ramdac, net als de V3 3500.
De voodoo3 2000 heeft een wat mindere 300 MHz ramdac.
V3 3000 heeft minstens even scherp beeld als matrox kaarten...veel scherper kan imho niet. (Heb een G200 zelf gehad, lopen vergelijken, en bij een kennis ff G400Max vs V3 3000 gekeken)

Dat moest ik even kwijt ;)
Ik weet niet hoe het zit met VSA100 series kaarten van 3dfx..maar ik neem aan dat hun 2d kwaliteit er niet op achteruit zal zijn gegaan?

Nvidia vind ik na 3 jaar nogsteeds huilen geblazen in iedergeval..blurry rommel voor je desktop. 3D uiteraard wel lekkah snehl B-)

Verders hebben ATI kaartjes ook zeer acceptabele 2D kwaliteit, in iedergeval vanaf de Rage Pro en merkbaarder vanaf de ATI Rage 128 en ..doh..de Radeon natuurlijk :) Om maar niet te spreken van swerelds beste DVD afspeel kwaliteit en snelheid, en dat voor kaartjes van nog geen honderd gulden (Rage Pro turbo 8mb - 95 pieken oid!)
(Ja dat zie/merk je :*)UIDELIJK* , zelfs op je Tbird 1200 @ 1500/Gf2 GTS Ultra Super Deluxe;P
Geen goeie zaak dat de prijzen bij release maar omhoog blijven gaan. Je ziet duidelijk dat zodra een bedrijf in een goede positie zit de prijzen meteen omhoog schieten. In de tijd van de TNT en TNT2 toen nVidia nog duidelijk geen grote speler was waren de nieuwe kaarten altijd zo'n 500,- als ze uitkwamen. De GeForce256 SDR was al duurder dan dat en sindsdien blijft de boel duurder worden.

Nou is het wel zo dat ze ook steeds meer geheugen hebben maar doorgaans dalen de geheugenprijzen in de periode tot de volgende generatie dusdanig dat het toch weer op hetzelfde niveau uitkomt. En met de gigantische dalingen in geheugenprijzen van de laatste tijd zou dat helemaal het geval moeten zijn.

Aan de andere kant, als iedereen je videokaart koopt voor 1600 piek, ga je hem dan voor 800 verkopen? Want zelfs als je minder dan de helft verkoopt heb je nog meer winst. En die andere kopers komen wel over de brug als de boel daalt.

Conclusie: hopen dat de ATI Radeon2 zijn belofte waarmaakt en minstens zo snel is als de GeForce3. Dan wordt het weer ouderwets matten, ook op de prijslijsten :)
Eeeuh, iedereen schijnt 2 dingen te vergeten...ten eerste hoef je niet de nieuwste kaart van nvidia te kopen en ten tweede brengt nvidia ook budget kaarten uit die verhoudingsgewijs een veel betere prijs/prestatie verhouding kennen dan vroeger (en toen had je ook maar "keus" uit 1 model)

Als nvidia geen marktaandeel wil verliezen dan brengen ze echt wel wat beter geprijsde kaarten op de markt, anders houden ze het net als 3dfx (met die pokkedure v5-6000) niet lang uit....

De 2d kwaliteit van een nvidia kaart kan best prima (ik heb een creative en een hercules met een nvidia chip op een goede monitor vergeleken met de matrox g400 en hdet verschil was echt marginaal...ook bij hogere resoluties als 1600x1200)
Ten eerste wil je wel altijd de nieuwste kaart van nVidia kopen, zo zit een mens nou eenmaal in elkaar. Je tweede punt is opzich wel geldig, maar als je het onderste uit de kan wil halen zal je toch een high-end kaart willen kopen. En het feit dat er een goedkopere mid/low-range kaart bestaat is geen reden om belachelijke bedragen te vragen voor een high-end model. Beetje raar argument van je.

Wat de beeldkwaliteit aangaat denk ik dat er wel behoorlijke verschillen zijn tussen kaarten, maar dat die verschillen doorgaans in het niet vallen bij de invloed van een monitor op de 2d beeldkwaliteit.
ik wil ook wel de snelste ferrarie/bmw/nvidia maar voor top prestaties moet je wat voor neertellen wat ik ook niet leuk vind maar het is niet anders.
En op dit moment in de grafishe 3d game markt is het niet echt nodig om de snelste te hebben omdat nieuwer game titel ook op wat mindersnelle kaartjes redelijk moet kunnen lopen anders is de doelGroep wel erug klein mijn MX draait bijna ales redelijk op 'n redelijke resolutie en 'n ouwere type Geforce DDR ook op wat gemiddelt hogere resoluties.
Als minimaal 30fps haalt en gemid 50fps is toch ook lekker speelbaar als je dat in 1600x1200x32 wil dan gaat dat wat meer geld kosten.
Nou het verschil met de Geforce 2 en de Radion merk je pas op hele hoge resoluties en minimaal 32 bits color depth. En heb je daar 1600 voor over. Nee!!!

Nu de voordelen, dat die koeler loopt en op 0.15 micron zijn natuurlijk 2 hele grote voordelen.

Het probleem is dat de rest van het systeem deze videokaart niet aankan dus 1600 gulden is iets teveel voor deze super snelle videokaart.
Het Gaat erom dat wat die kaart voor zijn kiezen krijgt dat die dat zo snel mogelijk kan verwerken
en 'n snellere CPU kan zijn T&L&C beter voeden zodat ie echt ook wat te doen heeft
T&L ontlast de cpu maar maakt hem niet overbodig
de game logic zet de 3dwereld op per frame en die moet naar de t&L gestuurt worden wat door de cpu gedaan moet worden de rest van de 3dpipeline wordt dan door de T&L hardware gedaan

ps
ik kan UT in 1600x1200 redelijk goed spelen
TB1200@1266 ATIRadeon64DDR

NB
iedereen heeft zijn eigen priorteiten en bijbehorende budget

en ook ik heb er zeker geen 1600 voor over
Zie alleen geen tv-out en video out, ik vraag me af of deze wel in die series uitkomt.

En van de buitenkant ziet die er ook niet echt speciaal uit, krijgt zeker ook standaard 32 mb geheugen, ja en als die op 0.13 micron uitkomt waarom heeft die dan een cooler nodig??

Ik dacht namelijk dat het juist warmtebesparend is als je de koper's steeds kleiner maakt.
Misschien heeft ie meer transistors zodat dat weer kompenseert, betere T&L met C
Ik snap niet wat dat gedoe is met tv-out / winwiev tegenwoordig. Even kwijt, mij boeit het geen fuck of er twinview of tv out op zit. Liefst heb ik gewoon een vette kaart zonder frits frats die ik toch niet gebruik.

Sry voor het evt. harde taalgebruik maar hier komt het uiteindelijk op neer bij mij.

1. Wie gebruikt nou een tv als monitor?

-slechte dotpitch
-slechte refreshrate (60 of 100Hz, 100Hz tv's zijn te duur)
-slechte max. resolutie : 800x600 (daarvoor koop je een mx geen NV20)

2. Wie gebruikt er 2 monitoren?

-Professionele 3d artists die behoefte hebben aan 2 monitoren
-Je spelgenot gaat niet vooruit met 2 monitoren, de meeste spellen ondersteunen het niet eens.

3. Wie heeft er thuis twee monitoren?

-Mensen die hun oude op zolder hebben staan en liever niet de oude 14/15" monitor uit de stof halen om koppijn van de krijgen door de slechte keuring / normen (MPR II, TCO 92/95/99).

4. Wie doet er thuis aan videobewerking?

-Mensen die dat als hobby hebben, want als ze beroeps zijn gebruiken ze wel andere kaarten van bijvoorbeeld Miro.

5. Wat is er zo interessant aan die functies als gemiddelde tweaker???
wat dacht je van bijvoorbeeld coole DVD films kijken op je breed beeld TV?? (als je die hebt) :9 :) :) ;)
2 dingen:

er zit een tv out op nl. onder de normale uitgang (ja dat zilvere)

en een dvd kijken doe ik liever op m'n tv dan op m'n monitor, dit omdat m'n tv wat beter in het midden van m'n kamer staat en hij is heeft een 19 cm grotere diameter (hoef je wat minder te knijpen met je ogen).

de kwaliteit van het kijken van dvd op de tv is goed te noemen, vreemd genoeg is het desktop kijken op de tv echt heel slecht
Het wachten is op de aankondiging, ik ben zo benieuwd hoeveel impact hsr gaat hebben en zeker of er wat aan de 2d is gedaan.
ik wacht op de eerste volledige reviews
1600 ballen?
Weet je hoe gestoord duur dat is?
Tis toch niet normaal dat je zoveel moet neertellen voor een beetje hippe kaart?

Ik wil weleens wat real-life beelden zien en die vergelijken met de upcoming consoles.
Lijkt me een aardige vergelijking.
"n PC kaart kan je beter met andere PC kaarten vergelijken als je consoles zo geweldig vind dan koop je die toch
PC/NV20 vergelijken met PS2
is als appels en peren vergelijken
Ik heb een Iiyama 22" inch mon. en draai alles perfect met me Hercules 3D Prophet II 64MB GTS! :P

2D --> Superstrak alles op 100Mhz
3D --> Uiteraard ook superVET!! :7

Dus nou nie meer zeuren over de mindere kwaliteit van 2D...hoop gewoon een goeie monitor voor weinig geld en prak er een net bovengemiddelde kaart bij en klaar ben je!
Hehe,

"2D superstrak, dus niet meer zeuren."

Dat is wel heeeeel makkelijk gezegd, volgens mij heb je de kennis niet om dat te zeggen, want in high res merk je wel degelijk beeldkwaliteit (dus niet perse 2D) verschil, en dat zou jij moeten weten met je 22" monitor.

Enuh, wordt maar niet bang, wij hopen allemaal op ene goede monitor!
laat maar doorkomen
Iedereen heeft het altijd maar over een "chipset" op die en die videokaat... Ligt het nou aan mij of bestaat zoiets niet?

Het is toch maar n chippie?

Da's all folks...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True