Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties
Bron: Hartware.de

Een vage Duitse site speculeert in dit stukje over de NV20 en dan vooral over de uiteindelijke naam van de chip. Het is bij nVidia min of meer traditie om een tag-line aan een chip mee te geven waarmee de belangrijkste vernieuwing wordt aangegeven. Zo staat TNT voor TwiN Texel en GTS voor GigaTexel Shader.

Voor NV20 zou nVidia de slagzin: "The Infinite Effects GPU" gekozen hebben. De naam zou dan GeForce3 nFX of GeForce3 FXE worden. Een andere term die nVidia wil introduceren op 27 februari is Lightspeed Memory Architecture, het zou dus ook nog GeForce3 LMA kunnen worden. Verder hebben ze een lijstje met specs van de kaart, dat er al een stuk minder geweldig uit ziet dan de eerdere beloftes van 300MHz GPU's en 500MHz DDR geheugen:

  • Core Clock: 200MHz
  • Memory Clock: 460MHz DDR
  • Speicherbandbreite: 7.4 GB/Sek.
  • Speichergröße: 64MB
  • Ausgabe-Optionen: VGA, DVI-I, TV-Out
  • TV-Out Options: CX25871 down or TV-Module
  • External TMDS Si164
  • Optional VIP on TV-module connector only
  • 3.2 Milliarden Samples pro Sekunde FSAA Füllrate
  • 76 GigaFLOPS
  • 800 Milliarden Operationen pro Sekunde
  • 57 Millionen Transistoren
Moderatie-faq Wijzig weergave

Reacties (63)

Wat maakt het nou voor ene reet uit oftie nou Gf3 FXE, LMA of nFX heeft?

Cijfertjes zijn veel leuker, en performance nog meer.
Maar het belangrijkste is op het moment BEELDKWALITEIT
Je kan wel 200 frames per seconde halen bij 1600x1200, maar als je dan de kwaliteit van het beeld ziet, en dan doel ik vooral op de Gf2 (ultra),
de Ge-force I viel nog wel mee.

De cijfers zijn (zoals gewoonlijk) weer erg goed bij nVidia:
4 pixel pipelines
quad texel rendering in 1 pixelpipeline
200, 250 en 300 Mhz versies
HSR (toch :?)
snel ram, 460Mhz en later 500Mhz (eigenlijk |:(, veels te duur :'()
de rest staat hierboven wel.

Nu alleen maar hopen dat die beeldkwaliteit wat beter wordt, anders wordt mijn volgende videokaart toch echt een radeon (II).
Hmmm, over die beeldkwalieteit zou ik niet inzitten totdat je daadwerkelijk het beeld gezien hebt. Maar dat geef je zelf al aan in je reactie. Ander feitje dat sommige misschien ontschoten is, is dat nVidia die jongens bij Matrox heeft weggekocht ( :() die daar het 3D gebeuren voor de G800 toedertijd aan het ontwikkelen waren. Dit kan impliceren dat nVidia wel degelijk op de hoogte was van de beeldkwaliteit en proberen ze met kennis van deze jongens de kwaliteit omhoog te krijgen. Jammer dat op deze manier de G800 z'n nek is omgedraaid, maar als inderdaad de nieuwe nVidida qua beeldkwaliteit niet meer onder doet voor de Radeon / G400 dan wordt het de opvolger van mijn G400. Zo niet, dan komt er een Radeon in de plaats.

Maar over de naam, ik dacht dat ze deze geen Geforce meer wilde gaan noemen? Kan het zelf ook mis hebben, maar ik wacht geduldig af.

Barend, Thanks voor de tip en ik voel compleet met je mee.
Dit kan implementeren
Je bedoelt impliceren? ;)


Volkomen waar trouwens, ontzettende naaistreek van nVidia. Ik ben benieuwd of Matrox nog terug kan komen in het high-end 3d segment. Ik ben inmiddels aan de driver support van Matrox gewend, en ik denk niet dat ik nog met minder genoegen kan nemen...
Als je het over driversupport hebt van Matrox, dan heb je het niet over OpenGL, mag ik aannemen. Een echte Full OpenGL driver heeft Matrox nl. nog steeds niet, alleen een mini-driver (turbo-gl of zoiets) voor games. Zeker als ze ooit in het high-end 3D-segment iets willen gaan betekenen, zullen ze dat nou eindelijk ook eens goed voor elkaar moeten zien te krijgen.

En ik wens echt dat ze dat gaat lukken, want voor de rest maakt Matrox goede kaarten (uitstekende 2d-beeldkwaliteit en features zoals o.a Twinhead) en meer concurrentie bovenin deze markt, is ook van harte welkom. Ik wil nou eindelijk die G800 van ze weleens zien. En ik hoop dat Nvidia er een kluif aan zal hebben, zodat ook zij goede beeldkwaliteit moeten leveren, tegen scherpere prijzen.
... is dat nVidia die jongens bij Matrox heeft weggekocht ( ) die daar het 3D gebeuren voor de G800 toedertijd aan het ontwikkelen waren.
Je zegt het zelf al: 3D gebeuren. Dat heeft dus helemaal niks met de 2D beeldkwaliteit te maken waar Matrox zo beroemd om is. Het eerste gaat om digitale technieken, het tweede om analoge signaalkwaliteit. Aan die jongens van Matrox heeft NVidia wat betreft 2D kwaliteit dus precies niets.
Aan deze kant toen 615,00 (beurs) voor een Asus 6600 Pure.... zit er nog steeds in trouwens :)

Maar ik had wel wat toen }>
Een test van 3d-beeldkwaliteit die hier een tijdje geleden op tweakers stond (waarin oa de radeon en de gf2 (ulltra)) werden getest) liet zien dat de beeldkwaliteit van ati en nvidia beide zeer goed zijn.

Ik heb zowel een gf1 als een gf2 in actie gezien en de 3d beeldkwaliteit van beide kaarten was zeer goed
Ook heb ik ooit de g400 en de gefoce1 naast elkaar zien draaien (op een gelijke monitor) en de 2d kwalietit van die kaarten ontging elkaar nauwelijks onder 1600x1200, daarboven bleef de matrox iets leesbaarder beeld leveren (hoewel verwaarloosbaar)

Dat deze kaart duur wordt (misschien wel zelfs zo duur als de initiele prijs van de v5-6000, waar overigens nooit kritiek op was)
lijkt me niet slim van nvidia want dan verliezen ze terrein op de concurrentie, dus als ze slim zijn dan maken ze weer een budget kaart of blijven ze gewoon geforce2 chipjes maken tegen een lagere prijs...
200MHz core: best wel traag voor DE videokaart van NVidia :(

460MHz mem: lekker snel maar duur :(

En dit moet meer dan Fl.1500 gaan kosten ??
NVidia: :z :Z (dream on...)
Dat gaat dus slecht verkopen.
nVidia bereikt zo langzamerhand de grenzen van de TNT architectuur. (Vergeet niet dat de GeForce gewoon een viertal TNT's met een TnL unit op één die is).

3dfx had met de V3 het einde van de Voodoo1 architectuur bereikt en had lange tijd nodig om de VSA architectuur af te krijgen. Te lang, naar uiteindelijk bleek.

Mijn verwachting is dat nVidia er niet meer aan kan ontkomen ook zo'n grondige herziening van de architectuur door te voeren. Het zal ze, in tegenstelling tot 3dfx, hoogstwaarschijnlijk niet fataal worden, maar een tegenvaller wordt het zeker. Op een gegeven moment is de rek er gewoon uit en moet er iets nieuws komen.
vergeet niet dat deze bron onbetrouwbaarder is dan een groot aantal eerdere bronnen, verder is dit wel LATER nieuws, maar toch
jaaa die mhz zegt idd niet alles hoor...

begin pas met zeiken (als dat nodig is) NA de benchies en als de prestaties aangetoond zijn...

NVIDIA brengt echt geen teringzooi op de markt wat trager of amper sneller is... en trouwens.... wie zegt dat die 200mhz core waar is?? ik hoor ut toch altijd liever van NVIDIA zelf en niej van een duitse site...

dus ga niet TE snel oordelen maar wacht ut eerst af...en de prijszeikers...gewoon niet zeiken en koop dan zelf een goedkoper kaartje

je hebt zelfs 3Dkaarten van ruim 2600.- dus tja...alleen die zijn niet voor tha gamezZ gemaakt maar voor nuttige dingen :)

i've spoken
Die 200MHz is al eerder genoemd door onder andere Digit-Life (een site die immiddels wel betrouwbaar is gebleken). Ik heb trouwens nog een reden om m'n schoen op te eten als die 200MHz een leugen is :P.
je hebt zelfs 3Dkaarten van ruim 2600.- dus tja...alleen die zijn niet voor tha gamezZ gemaakt maar voor nuttige dingen
'zelfs 3D kaarten van ruim 2600'...er zijn videokaarten met een zelfde prijs als een een kleine auto. Ik denk dan met name aan de kaarten die met een Glint processor uitgerust zijn...

Moet je voor de gein eens kijken op:

http://62.189.42.82/product/card/wildcat_overview.ht m

Misschien dat je dan een iets bredere horizon krijgt :)
Hmm ik twijfel hieraan, hier voor dat TNT en GTS stonden voor feiten van de GPU, dat "infinite effects" of "lightspeed memory architecture" zijn geen feiten maar gewoon "stoere" namen. Past IMHO dus niet echt in het rijtje...
ik geloof niet dat ik je begrijp.
Was GTS dan niet het toppunt van een stoere naam?
GigaTexelShader. Dat ging volledig om dat Giga, ik meen me uit die tijd (a long time a go in a ...) een stukje te herrineren, waar de schrijver zich ookal ergerde aan die opschepperige naam.
waarom denken zoveel mensen dat meer MHz = sneller?

intel ziekte of zo of dommigheid van de grote grijze massa?
Ferrarimotor levert aan 400 rpm ook meer pk dan uw auto aan 4000 rpm ;)
<Off Topic Mode>
Das niet helemaal waar Catfish....400 toeren per minuut is wel erg weinig
</Off Topic Mode>

Maar verder klopt het wel dat meer Mhz lang niet altijd meer snelheid betekent. Een goed voorbeeld is idd Intel met hun P4. Ik denk dat ie zich nog gaat bewijzen maar dan moet er wel geoptimaliseerde programmatuur uitkomen. Dit is natuurlijk ook te hopen voor de Geforce 3 (nFX/FXE/LMA???) Die Geforce 3 zal waarschijnlijk helemaal gemaakt zijn voor DirectX 8, en zolang er nog geen goede stabiele drivers uit zijn voor DirectX 8 (en laat staan spellen). Moeten we nog maar even afwachten.

*Tweaker Out.*
Dit soort specs zeggen lang niet alles. Vergeet niet dat de oorspronkelijke GeForce slechts op 125 Mhz liep terwijl een Tnt2Ultra op 150 liep en vaak wel te overclocken was tot boven de 175Mhz. Toch was de GeForce op alle fronten sneller terwijl deze op 125Mhz liep. Zoals je ziet: Mhzen zeggen lang niet alles!
Snelheid van de core wordt inderdaad bepaald door MHz'en maal Parallellisme, ervan uitgaande dat er genoeg geheugenbandbreedte is, wat bij nVidia tot nu toe altijd het probleem is gebleken. In werkelijkheid ligt het dus lager, al zullen het altijd de theoretische waarden zijn die je op de doos terugvindt.
Het is te hopen dat deze chip klok-voor-klok sneller is dan de Geforce 2, want de specs zijn langzaam maar zeker wel afgegleden naar het niveau van de GF2 Ultra! Waarschijnlijk is de instapper van de GF3 dan even snel als de snelste GF2, en zal de kloksnelheid binnenkort verder opgevoerd worden. Eigenlijk is dit nogal teleurstellend na alle valse beloftes van de afgelopen maanden, maar misschien is de GF3 op dezelfde kloksnelheid als de GF2 Ultra wel een stukkie sneller. Maar ik betwijfel het.
Dat slaat op nix. Er zijn genoeg videokaarten die op dezelfde clock settings draaien dan andere.

Bovendien heeft deze 57miljoen transistoren (electronische schakelaars), en dat is vooral een groot verschil tussen de GFII-Ultra en de Nv20 of GF3 wat je gewoon weglaat.

En aan overclocken van de gpu heb je niet bepaald veel omdat de geheuden toch de bottleneck blijft op deze kaart.
Het is nu eenmaal een feit dat geheugen bij zulke snelle videokaartjes (en dure) de bottleneck is

een (moeilijke) oplossing zou kunnen zijn om een soort cache net zoals bij procs ook bij die grafische kaarten te doen (ik weet het dit is heel moeilijk)

Ook de functie die bij de radeon zit om bandbreedte te beperken is wel geinig

Die prijzen zijn echt niet leuk meer ik vond 900,00 voor mijn Gforce GTS-je al veel te veel.

Waarneer komt de reactie van ATI op dit geweld :)
Op zich is wel een idee om alvast het geheugen erbij te gaan produceren, dan zijn er alvast bredere bussen te gebruiken wat ook tot meer bandbreedte lijd.
Maar als ze het niet doen zullen ze daar wel een reden voor hebben :)

* 786562 TheGhostInc
Als NVidia niet uitkijkt wordt hun eigen succesformule nog hun ondergang. Telkens zo snel achter elkaar nieuwe kaarten maken kan op een gegeven moment toch niet meer?! Dan moeten ze zo extreem veel investeren om snel weer wat bruters te maken, en zulke dure 'state of the art' onderdelen ervoor gebruiken, dat die dingen gewoon (zoals het nu al lijkt) onbetaalbaar gaan worden.

En als nadeel krijg je dan ook nog dat spellenproducenten zo steeds luier worden: 'och die kaarten zijn zo snel, we schrijven de engine wel in VB'.. Als je naar bijvoorbeeld de playstation kijkt, dan zie je dat in de loop der jaren de spellen steeds mooier en gedetaileerder werden, gewoon door goed programmeer werk, want de HW blijft het zelfde.

Dan koop je straks zo'n ding van 1500,- en dan kan je noodgedwongen een (half) jaar later WEER een nieuwe kopen omdat die producenten hyperactief zijn, en de gameprogrammeurs steeds luier worden. Dit moet gewoon ophouden.
Ja , maar als de X-box uitkomt zullen er heel wat games gaan uitkomen die DX8 functies gaan gebruiken.Ik voorspel dat de X-box helemaal niet slecht is voor de pc-gamers onder ons.Er zullen veel meer spelletjes voor beide platformen uitkomen.Die games voor de X-box zullen allemaal gebruik maken van DX8 en naar PC's worden gepoord of andersom.Dus kan je al de opties van een Nv20 gaan benutten in games, aangezien de X-box een doorontwikkelde Nv20 GPU zal gaan bevatten.Dus zal je Nv20 beter benut worden in de games die het komende jaar gaan uitkomen.
Ik vind het opvallend dat er (behalve door stefana3a hierboven) alleen maar gekeken wordt naar performance. Volgens mij loopt NV op dit punt al helemaal vooraan. :) De beeldkwaliteit kan echt nog wel beter. Voor mij is de huidige kwaliteit een reden om geen (tweede) GF2 te kopen, in hoge res zuigt dat (al heeft de Suma Platinum met hun SIF filtertjes voor een tikje verbetering gezorgd :))

Hopelijk zal de genoemde opvolger (hoe deze dan ook heten zal) op dit punt verbeterd zijn, dit gaat wat mij betreft nog boven een (nog) betere performance.

Mijn definitie van het ultieme bord ?
1. Performance van de GF2 (welke variant dan ook)
2. Twin- of dualhead
3. Video kwaliteit a la Matrox of ATI.

Maar ja, die prikplankjes bestaan (nog) niet. Of zie ik iets over het hoofd ? :?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True