Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: HartWare.de

Het Duitse HartWare.de zegt het laatste nieuws en de final specs te hebben omtrent de NV20 'GeForce3' chip. nVidia zal deze chip dadelijk omschrijven als 'The Infinite Effects GPU', dit vanwege de 'nFiniteFX engine' en het 'Lightspeed Memory Architecture' waarover hij zal beschikken. Deze features zullen respectievelijk zorgen voor nieuwe grafische hoogstandjes en ongeëvenaarde performance (om het maar eens commercieel te brengen ).

Over de chip zelf weet HartWare.de te vertellen dat deze uit 57 miljoen transistors bestaat en op een snelheid van 200MHz zal draaien. Standaard zal hij vergezeld worden van 64MB DDR SDRAM @ 460MHz. Deze kloksnelheden verschillen dus niet veel met de GeForce2, wat echter weinig hoeft te zeggen over het prestatieverschil tussen de twee. De 7,4GB aan bandbreedte zou veel effectiever gebruikt moeten worden waardoor o.a. FSAA nog beter uit de verf moet komen. Of dit in de praktijk zal blijken weten we voor het einde van deze maand. Hieronder heb je alvast een aantal quotes:

Die GPU (Graphics Processing Unit - Grafikchip kann man laut NVIDIA nicht mehr sagen), selbst besteht aus insgesamt 57 Millionen Transistoren. Zum Vergleich: Der Intel Pentium 4 besitzt 42 Millionen Transistoren. Hier die Produktspezifikationen:

Core speed 200MHz
Memory speed460MHz
Bandwidth7,4GB/sec
Memory64MB
OutputsVGA, DVI-I, TV Out

Von den früher mal vermuteten Taktraten von 300MHz für den Chip und 500MHz für den Speicher bleibt also nicht mehr viel übrig. Das Grafik-RAM ist genauso hoch getaktet wie bei einer GeForce2 Ultra und der Chiptakt ist so hoch wie bei einer normalen GeForce2 GTS.

[...] NVIDIA selbst bezeichnet den GeForce3 als den ersten Grafikchip, der Full-Scene Anti-Aliasing (FSAA) bei hohen Auflösungen und gleichzeitig hoher Framerate bietet. Die Performance-Eckpunkte werden von NVIDIA folgendermassen definiert:

  • 3.2 Milliarden Samples pro Sekunde
  • FSAA Füllrate
  • 76 GigaFLOPS 800 Milliarden Operationen pro Sekunde

    Wie sich diese Specs beispielsweise in die Framerate von Quake3 übersetzen lässt, müssen wir noch offen lassen. NVIDIA behauptet, die GeForce3 GPU würde "bis zu 100x schneller sein als eine GeForce2 Ultra", aber die Betonung liegt hier wohl auf "bis zu"...

  • Over de exacte release date wordt dus nog een beetje gespeculeerd, maar naar verwachting zal deze de 3e of 4e carnavalsdag zijn . Klik hier even voor de rest van de info.

    Moderatie-faq Wijzig weergave

    Reacties (41)

    Beetje aanvullende informatie:

    GeForce3 in 10 days?

    There are less than two weeks untill the official GeForce3 announcement. Thefore, all sites produce tons of information about it. Very interesting details concerning the time of official GeForce3 announcement have appeared today. According to HardWare.fr, the next generation of NVidia GPUs will be unveiled at the first day of IDF, the 26th of February at 19:30 is San Jose.

    Bron: Reactor Critical
    Ziet er op zich interessant uit, maar opnieuw rept nVidia in alles wat er over NV20 geschreven is met geen letter over de beeldkwaliteit. Voor mij is de belabberde kwaliteit bij hoge resoluties nog steeds reden om geen nieuwe GF2 te kopen, ik vermoed dat ze op dit punt nog geen verbetering kunnen bieden, anders hadden ze dit al lang van de daken geschreeuwd.

    Qua performance is nVidia momenteel absoluut oppermachtig, maar helaas doen ze dit teniet door de hires freaks niet tegemoet te komen... :(
    Dat zou erg dom van ze zijn, want ook al is de nieuwe Geforce3 uit, de Geforce 2 (MX) zal de eerste tijd nog wel de beste verkopende Geforce zijn. Als ze dan gaan roepen dat de beeldkwaliteit eindelijk goed is, beweren ze daarmee dus dat de beeldkwaliteit eerst slecht was.. Dan stoten ze zichzelf voor hun kop
    Humus asks: Nvidia cards have sadly enough often been equipped with low quality RAMDAC filters, which has cause the image to get blurrier in higher resolution. Even though vendors are free to choose whatever filter they like, are you in any way going to push for higher quality filters in future products, perhaps promoting that in the reference design?
    NVIDIA: Yes, we always try to encourage our partners to use the highest quality components. NVIDIA has a new filter design circuit methodology that we implement on all new reference designs along with guidelines for board manufacturers to follow.
    http://athena.tweakers.net/nieuws/15703

    Gelukkig heeft nVidia er dus wel een woord over gerept, en ook aangegeven dat ze ut probleem gaan oplossen :)
    nVidia is niet 100% verantwoorlijk voor de beeldkwaliteit. nVidia legt alleen een spec neer en de kaart fabrikanten (Creative, Asus, etc) mogen dit zelf verbeteren door hogere kwaliteit onderdelen te gebruiken.

    Aan de ene kant moet nVidia de specs hoger leggen, waarbij de fabrikanten gedwongen worden hogere kwaliteit onderdelen te gebruiken. En de fabrikanten moeten gewoon uit zichzelf beter kwaliteit onderdelen gebruiken (naar mijn mening een goede manier van onderscheiden in de menigte).

    Maar helaas denk ik niet dat de fabrikanten of nVidia hier iets aan doen. De kaarten zijn nu al duur genoeg.

    <edit>
    Ik zie dat dit ongeveer al verteld was.... volgende keer wat beter lezen :o
    </edit>
    Dacht dat 3DFX ook fps minded waren in het begin met rauwe frame power sli etc en waar zijn ze nu???
    In het begin was dat nog nodig, toen ze Q2 amper op 30fps konden krijgen. Nu is een goede beeldkwaliteit wel degelijk het meest belangrijke wat er is.
    Belangrijkste specs komen niet aan bod: prijs.

    Aangezien de NV20 op experimentele (voor videobakkers dan) technieken van 0.18 worden gebakken wordt een hogere uitval verwacht (yield=87% of zo). Gezien de beestachtige hoeveelheid transistoren zal het inderdaad nogal prijzig worden. Tot zover de GPU. 460 MHz DDR geheugen (64Mb) is helemaal top-notch, dus nogal reteduur. Als dit geheugen maar 7.3 Gb/s kan doortrekken, vindt ik dat eigenlijk best flauw. De GTS draaide als 5.3 Gb/s weg dus zoveel verbetering is het ook weer niet (geheugen blijft de Bottleneck :()

    De tijd van goedkope video-doorgeefluiken lijkt voorbij. Er moet steeds meer knowhow etc worden ontwikkeld voor adequate performance-verbeteringen. T&L, straks eDRAM etc etc. Goedkope kaarten die hige prestaties leveren zie ik de komende jaren niet meer gemaakt worden :(.

    * 786562 ecteinascidin
    [edit], ik zie een hoop HSR opeens als oplossing voor mijn bottleneck. Ik denk dat HSR meer een driverkwestie is dan echt hardware ondersteund. In een chip die meer-van-hetzelfde is zit niet opeens een nieuwe Unit optimaal geintegreerd. De concurrentie hebben er jaren over gedaan om fatsoenlijk werkbare HSR voor elkaar te krijgen. nVidia kan echt niet toveren of zo.
    Daar heb je gelijk in. Het is inderdaad interessant wat de prijs gaat doen. Zal wel weer heel duur worden, maar jah, je kiest er ze;f voor om dat ding te kopen of niet. Een voordeel is dat de andere NVidia kaarten nu weer iets betaalbaardeer worden. Maar aan de andere kant, we hebben ATi nog toch? Het ziet er leuk uit allemaal, maar ik wil toch wel een keertje benchmarks zien, want het is eerst zien dan geloven.
    Hoeveel kost dit nieuwe kaartje, en wanneer leverbaar hier in Eindhoven?
    Ergens in maart lijkt me, prijs verwacht rond de fl. 1500 :(
    Zal dus nog lang duren voor dat de prijs naar beneden gaat. fl.1500 piek :(
    <lichtjes off-topic!>

    Bij benchmarks is het probleem meestal dat ze niet altijd zo veelzeggend zijn... er wordt getest met een recente processor en laten we zeggen Q3...

    In de praktijk heb ik gemerkt dat mijn Q3 framerate verdubbeld is door mijn processor van p2@448 naar p3@728 te upgraden terwijl ik nog steeds hetzelfde tnt2u kaartje gebruik... en ik haal meer frames dan iemand met een lagere processor maar wel een Geforce DDR...

    Dus voor mensen die nog een P2 hebben en meer fps willen in games... ok die GF3 zal wel een pak helpen maar het gaat niet noodzakelijk de beste oplossing zijn en zeker niet de goedkoopste :o

    Maar natuurlijk hoop ik dat de GF3 een geweldig kaartje wordt dat rondjes draait rond een GF2u... in dat geval mag het wel iets kosten 8-)
    Je framerate wordt op lagere resoluties vooral bepaald door je systeem (CPU, bus, geheugen) en pas op hogere resolutie moet de kaart meer doen. Als jij op 800x600 speelt geloof ik best dat jouw framerate verdubbeld is. Als jij op 1280x1024 speelt is de videokaart de bottleneck en zal je meer hebben aan een geforce dan aan een 1.2 Ghz Athlon bijvoorbeeld.
    " 3.2 Milliarden Samples pro Sekunde FSAA Füllrate"

    Bedoelen ze hier 3,2 Giga pixels/sec Fillrate mee??

    Dat zou leuk zijn :)
    kan bijna niet, de gf2 haalt bv. maar 25 miljoen ofzo dacht ik!
    Die 25 miljoen die jij beweert dat bestaat absoluut niet!
    een Evil Kyro (powerVR) haalt al 1,1 GigaPixel/s (afgerond)
    Dus dat zou betekenen dat deze 40x zoveel Pixels/s heeft dan een Gf2. |:( NIET dus.


    edit:

    En hoeveel pixels/s een GF2 dan wel heeft, tja... geen idee (ik heb er namelijk geen 1) :)
    Iemand anders???
    Een pixel heeft bij FSAA meerdere samples nodig. Maar zelfs als je het door bijv 4 deelt, blijft het een erg hoog getal, ik denk niet dat ze dat waar kunnen maken.
    Zal dan de GF3 met 4xfsaa 3200/4=800 dus net zo snel zijn als de GTS zonder fsaa?
    Of zal fsaa methode zo niet meer werken/te vergelijken zijn?
    typo
    Leuk ook dat er een digitale uitgang opzit :). Volgens mij is dit nog niet het geval bij veel kaarten.(correct me if I'm wrong)
    dvi zat al op de gf-1 hoor :)
    Het is natuurlijk wachten op de benchmarks, maar op het oog zijn deze gegevens niet zo heel indrukwekkend. Volgens mij heeft nVidia de grenzen van de TNT architectuur nu bereikt en moeten ze met wat anders komen.

    Mijn hart gaat hier niet sneller van kloppen in elk geval.
    Benchmark zeggen meer dan spec's
    Als je de spec's van de kyro ziet dan verwachtje er toch ook niet veel van
    Als nVidia ook veel van die truukjes toepast kan het effect best wel overweldigend zijn

    dus wacht maar op die benchmarks
    Dit wordt alweer de derde geforce terwijl de functies van de eerste twee nog eigenlijk bijna niet worden gebruikt. Sinds mijn eerste geforce 1 (nu een 2MX) wacht ik al op de hoogstandjes die je in alle mooie tech demos ziet zoals goed gebruik van T&L en zeker bumpmapping maar in games komt daar nog weinig van voor. UT heeft gelukkig texture compression als een van de positieve uitzonderingen (en dat dan nog dankzij Loki) maar ik wil in meer games toch ook wel eens zien wat mijn kaart allemaal kan!

    Daarnaast mag Nvidia zelf best wat rapper omgaan met de driverontwikkeling. Ik weet ze maken veel detonators die ook rap uitlekken maar bij mijn asus 7100 Geforce 2MX zat een cd met drivers die twinview nog niet eens ondersteunden die kwamen pas tijden later uit.......Ook nu nog is het zeker geen functie die echt goed wordt ondersteund.wel mooi dat ze die chippies zo snel ontwikkelen maar zonder goede drivers heb je er weinig aan.

    just my thoughts......
    Tsja, met de gem. ontwikkeltijd van een game van 2-4 jaar, zie je dat niet gelijk terug.
    Er zijn inmiddels wel een paar games die veel features van deze kaarten eindelijk gebruiken en het resultaat is er ook naar.
    Bv Giants, Evolva, Sacrifice ect.
    Verder vond ik de Crytek-demo voor nVidia echt stunning, schitterend en dan te bedenken dat daar werkelijk een game mee uitkomt :)
    Met de Radeon is het ook zo, deze heeft al 3 textureunits, terwijl nog geen enkele game daar gebruik van maakt (serious Sam, Tribe2 en Halo later)
    Geheugen moet door HSR veel beter benut worden, dus misschien is die 7 Gig wel genoeg, afh van de efficientie van hsr.
    De 2d mag idd best wel wat beter, de techniek is er en zou dit zo'n grote invloed op de prijs hebben als er hoogwaardiger 2d-filters worden opgezet?
    Tsja de prijs, das een goeie, ze moeten zich ook weer niet uit de markt prijzen, anderzijds is het aanbod breed en niet iedereen hoeft deze kaart te kopen, er zijn zat alternatieven, in de vorm van mx'en, sterker nog, nooit was het aanbod zo breed, dus niet klagen over de prijs ;)
    Ik weet iig waar m'n belasting teruggave naar toe gaat :)

    Op dit item kan niet meer gereageerd worden.



    Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

    © 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True