Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties
Bron: Chip Online, submitter: VTec

De Duitse site Chip Online heeft informatie en de eerste benchmarkresultaten gepubliceerd over de opvolger van de GeForce FX 5800 Ultra, de NV35. De NV35 is opgebouwd uit 130 miljoen transistors wat 5 miljoen meer is dan de GeForce FX. Veel nieuwe features zullen we dus niet kunnen verwachten in de NV35, maar met 5 miljoen transistors kan natuurlijk nog altijd iets leuks gedaan worden. De chip is evenals de GeForce FX gebakken met behulp van een 0,13 micron productieprocédé en heeft een kloksnelheid van 500MHz.

nVidia GeForce FX logoDe grote verandering is het geheugen. Aanwezig is DDR-I geheugen in plaats van DDR-II geheugen met een kloksnelheid van 500MHz. De grote verbetering is de geheugenbus, deze is nu 256-bit breed in plaats van 128-bit waardoor de geheugenbandbreedte verdubbeld wordt. ATi gebruikt al langer een 256-bit brede bus en dat dit goed werkt blijkt wel uit de goede prestaties van de Radeon 9700 Pro en 9800 Pro.

Tijdens CeBIT 2003 had nVidia achter gesloten deuren een NV35-prototype draaien op 250MHz, de helft van de uiteindelijke kloksnelheid. Als vergelijking was een GeForce FX kaart aanwezig op dezelfde kloksnelheid. De kaarten werden vergeleken in Quake III Arena op 1600x1200 met 4x FSAA en 8x anisotropische filtering ingeschakeld. De NV35 bleek verrassend goed te presteren. De GeForce FX scoorde slechts 48FPS terwijl de NV35 110FPS wist te halen, ruim tweemaal zoveel dus. Ook goed nieuws is dat de kaart geen stofzuiger als koeler meer nodig heeft, maar uitgerust is met een stil exemplaar. Volgens de geruchten zal de NV35 ergens in het tweede kwartaal van dit jaar geïntroduceerd worden.

Quake III Arena - 1600x1200 - 4x FSAA 8x AF
Prototype NV35-kaart 110
GeForce FX @ 250MHz 48

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (108)

Wat ik mij eigenlijk afvraag is wat voor PCB's hiervoor gebruikt gaan worden.

De GeforceFX heeft al zoveel lagen dat het speciaal geproduceerd moet worden om de kwaliteit te kunnen garanderen.

Maar 256 bit geheugen vereist nog eens 2 tot 4 lagen. Wat het totaal op 14-16 brengt. Dit is toch nauwelijks te produceren tegen een normale prijs???
Het is ook weer een nieuwe chip die ze verbeterd hebben, dus ik denk dat er wel minder lagen nodig zijn. Misschien heeft ddr-| ook minder lagen nodig. Maar dan nog, zo simpel is dat niet te zeggen. En ik denk niet dat nVidia het nog ingewikkelder en duurder maakt dan het nu al is.
Ik ben inderdaad erg benieuw, het is wel zo dat ze de chip niet zo veel kunnen veranderen dat het ineens minder lagen gaat vereisen. Het is namelijk een aanpassing op de chip, geen geheel nieuwe architectuur.
Ik neem dit ook niet serieus. Er zal vast wel wat vooruitgang in zitten, maar geen verbetering die de kaart 2X zo snel maakt. Hooguit een keer de helft sneller. Als het 2x zo snel zou zijn zou dat een revolutie in de 3d markt zijn, ipv een stuk of 5000 3d marks ineens 1000. En dat zou betekenen dat doom 3 ook geen probleem meer is.

Het rare eraan vind ik nog dat nVidia zo'n heel serverpark heeft die allemaal simulaties kan uitvoeren. Denk ik toch dat nVidia had moeten zien dat DDR-|, ook al liep het op 400Mhz ,sneller is. Of de snelheidswinst moet echt meevallen, dat denk ik. Want als het werkelijk 2x zo snel zou zijn vind ik dat nVidia wel een hele forse fout heeft begaan. Dan zouden ze zelfs beter hadden kunnen kiezen voor DDR-| op 250Mhz, omdat dat dan even snel had kunnen zijn als DDR-|| op 500Mhz....
Natuurlijk hebben ze die simulators, maar het kost zelfs met die brute kracht nog maanden om zo'n chip helemaal door te rekenen. Je kunt niet zomaar op 80% van het project de specs nog even omgooien. De "fout" had dus alleen kunnen worden voorkomen door op 10% van het project al in te grijpen, maar toen zag het er nog naar uit dat NV30 zeker een half jaar eerder op de markt zou zijn.
Ik weet het niet, een 2 maal hogere klok betekent niet dat het ding ook 2 keer harder gaat lopen, misschien krijgt het ding wel last van waitstates van het geheugen, dat die hoge kloksnelheid alleen maar in bursts aankan. Bovendien heb ik begrepen dat quake3 niet zo zeer op de grafische kaart hangt, dan wel op de cpu, dus quake3 als benchmark is niet zo eerlijk. De NV35 zal dus wel sneller zijn, maar 2 maal, daar geloof ik niet in.
Wat je zegt klopt volgens mij niet. Als Quake zo cpu afhankelijk zou zijn zouden de scores dus hetzelfde moeten zijn want dan maakt het nie uit welke geforce het is.
Quake 3 is weliswaar niet zo'n GPU-verslinder op 1024x768, maar wel op 1600x1200 met maximale settings. Quake 3 heeft de "rare" mogelijkheid om steeds sneller te draaien met nieuwere hardware, dus het heeft geen "ceiling".
Dat klopt idd niet omdat ze met AA en Anastropic filtering hebben getest. hierdoor word de vga de grens en niet de gpu
Tsja....Quake3 wordt volgens mij ondertussen wel een beetje oud als benchmark voor de volgende generatie videokaarten.

Laat ze toch eens 3Dmark 2001 of 2003 draaien. Niet tov een Radeon maar tov elkaar.
eerlijk genoeg toch?

Ik ga trouwens geen productiemodel van de FX5800 terugschroeven tot 250Mhz om het resultaat tot "dubbel" zo snel te laten lijken.
Ik wacht wel tot ze het vergelijken met een "echte" FX5800.
Een FX5800 core op 250Mhz is laten we zeggen even krachtig als een FX5200 (als dat bestaat).
In dat geval is de NV35 dubbel zo snel als een FX5200 en dus geen FX5800...

Verwarrend hoor...
Tjah, logische keuze van benchmark volgens mij. Als de grootste vernieuwing van de NV35 de geheugen interface is , dan is quake3 nog steeds DE benchmark bij uitstek hiervoor , quake3's engine is gewoon memorybreedte vretend. Waarom denk je dat P4 's het hier altijd beter op deden dan AMD's...
het prototype liep maar op halve snelheid van uiteindelijke productiesnelheid, vandaar dat ze de 5800 ook maar op halve snelheid lieten lopen. Je zou dus eigenlijk kunnen zeggen dat de NV35 4x zo snel is als een 5200.
Zullen ze er ooit eens achter komen dat snelheid alleen niet gelukkig maakt? Maar dat als het er 2D en 3D mooi uitziet, zo'n kaart ook best de moeite waard is? Ik hoop het vurig :)
wat denk je zelf, 2d is al prima, nix op aan te merken. 3d ontwikkelt maar door en door, logisch dat het dan ook sneller wordt (en mooier). Wat een gezeur altijd over de beeldkwaliteit (2d wordt heus niet slechter ineens, en was al hardstikke goed). Als je nou een kaart maakt met goeie 2d kwalitiet en vrijwel geen 3d heb ik er echt geen baat bij, wat moet ik met zoiets dan?, dan kan ik nog nix. Als jezelf echt zo miereneukerig bent op 2d gebied, ga dan ook niet een reactie plaatsen in deze nieuwspost die over een NV35 gaat aangezien je blijkbaar toch geen belangstelling hebt voor deze videokaart want volgens jou zou nVidia wel 'slechte' 2d kwalitiet hebben.

edit:

Hmzz, valt me toch erg tegen de moderatie op dit moment, toch veel mensen die de kwaliteit van nVidia kaartjes erg slecht vinden blijkbaar. Dit soort dingen kwamen een jaar geleden nog wel ter sprake, maar daar valt nu toch weinig over te klagen. Leg de schuld a.u.b bij fabrikanten zoals club3d ofzo (jah ik heb mijn Ti4600 moeten solderen omdat het beeld zo slecht was!) maar daar kan je nVidia niet de schuld van geven.
EN btw, 'snelheid' verkoopt veel beter dan 'beeldkwaliteit' (want die is toch al goed), dat een enkele tweakpino die het er niet mee eens is de kaart niet koopt om die reden zal nVidia echt een worst wezen. Neem dan een ATi, echt een wereld van verschil op 2d gebied! :P :P (me heeft bijde kaarten op 21" trinitron, geen verschil te bekennen)
Op je edit geef ik je 100 % gelijk. Op 2d zie ik op mijn aoc of iiyama geen verschil in 2D. Mijn GF2ti had op 1280*1024 net hetzelfde 2d dan mijn radeon 9000 nu . Als ik nu echter in 2d nog een verschil zie tussen ati en nvidia , dan kan ik enkel maar de tvout van ati als superieur beschouwen. Valt echt op , zelfs op men goedkoop 53 cm tvtje van daewoo slaag ik er in de text in word te lezen met mijn Hercules ati 9000, terwijl dit met mijn msi 2ti gewoon blurry was. Maar op de vga uitput kwaliteit zie ik inderdaad echt geen verschil !
De 2D word ook al behoorlijk opgepoetst met XP dankzei "smooth fonts". Dat maakt zowiezo de verschillen kleiner. Wil weles weten of dit zonder deze truuk en/of in 98/linux ook nog geldt...
Klopt, ik gebruik zelf ook veel TV-out, op een sony 72cm Trinitron tv, en daar zie je echt duidelijk dat de Radeon een veel betere kwaliteit heeft. Nvidia heeft allemaal verticale strepen in het beeld zitten ( moet je wel goed kijken, bij films valt et echt niet op). Verder is (met TV-TOOL) de scherpte niet zo heel erg anders vergeleken met ATi. Maar het fijt dat ik op mijn Nvidia geen 1024x768 resolutie kan draaien op de tv vind ik ook een minpuntje. Ik krijg echter wel het id dat het beeld van de Nvidia kaarten iets beter te synchroniseren is met de tv dan dat met de Radeon lukt. Soms blijf ik gewoon 'tearing' krijgen op die radeon terwijl het op de Nvidia helemaal smooth draait. Dit zit em echter gewoon in de drivers dus kan nog wel beter worden.
Wel een hele logische verklaring voor de 'traagheid' van de huidige FX serie. 128bit geheugen was duidelijk niet genoeg, waarschijnlijk zou het hier zelfs nog om een nv30 chip kunnen gaan die ondersteuning biedt voor 256bit en DDR1 geheugen. Ongeveer een zelfde prestatieverschil die je ziet bij de Radeon 9500PRO (128bit/8pipelines) en de 9700 (256bit/8pipelines).
Bijde kaarten hebben vrijwel dezelfde clocksnelheden. De 9700 is precies 2x zo snel als de 9500PRO. Lijkt me dus duidelijk dat het geheugen de zaak heeft tegengehouden wat bij de 9500PRO ook gebeurt. Wel een hele stomme en dure grap die Nvidia met de FX heeft uitgehaald. Verkeerd geheugen, that's all, het VPU ontwerp zal wel exact hetzelfde blijven om zo die extra ontwerpkosten te besparen. Nou hebben ze dus een Geforce gamaakt die op de halve clocksnelheid (250MHz) nogsteeds sneller is als de FX5800 op 500MHz. Een hele dikke prestatie wel te verstaan, en zeker sneller dan de 9800PRO als dit waar blijkt te zijn.
HMzz, dan toch nog maar even wachten op de NV35...
Denk je dat nVidia staat te liegen als ze zeggen dat ze een NV35 hebben draaien? Daarnaast is dat ook redelijk onmogelijk aangezien de chip dan nooit meer dan 2x zo snel had kunnen zijn als je alleen de geheugenbandbreedte zou verdubbelen...
Wordt leuk om te zien wat deze kaart in verhouding tot de R350b (om m zo maar ff te noemen) gaat doen, deze kaart moet harder gaan lopen dan de 9800 pro en 256 MB mem meekrijgen, en tsja quake3 benchmarks zeggen nog niet veel, laat ze maar eens zien of de shaders nu naar behoren werken...
er komt idd een 400/460 256mb versie uit van de R350,

Daarnaast komt er MISSCHIEN een 0.13micron versie van de R350 uit.

Het ligt eraan hoe het met de R400 gaat, of dat deze in een lichtere vorm uit komt (dan komt er dus geen 0.13 R350), of dat de R400 toch maar volledig tot volgend jaar uitgesteld wordt (dan komt de 0.13 dus wel nog uit).

Ik denk niet dat de huidige 9800pro (of 256) helemaal kunnen concurreren met de NV35. Dit zal dus naar alle waarschijnlijkheid de 0.13 R350, of de R400 gaan doen.
Volgens mij is dit hetzelfde bedrijf dat ooit claimde dat de NV20 2x tot 7x zo snel zou zijn als de GF2 Ultra... en toen echter "vergaten" te vermeldden dat dat alleen gold onder bepaalde omstandigheden...

Nee, 2x zo snel geloof ik niet in, zeker niet van een bevooroordeelde bron... als Ome Tom met benchmarks komt zal ik wel geneigd zijn dit te geloven :)

Trouwens, waarom heeft iedereen het over teruggaan naar DDR-I, het lijkt me dat DDR-II toch net zo goed een 256-bit bus kan hebben?
Trouwens, waarom heeft iedereen het over teruggaan naar DDR-I, het lijkt me dat DDR-II toch net zo goed een 256-bit bus kan hebben?
DDR-| is veel goedkoper. En sinds kort is er ook DDR op 500Mhz te verkrijgen en dat was nog niet beschikbaar in de ontwerpfase van de nv30, dus hadden ze er 128bit ddr-II op geplakt. En het is 128Bit omdat dat nog wel betaalbaar is, 256bit GDDR-|| is helemaal duur.
Omdat DDR-II met een 256 bits bus verschrikkelijk duur zou zijn.

Oops...te laat! :+
De grote verbetering is de geheugenbus, deze is nu 256-bit breed in plaats van 128-bit waardoor de geheugenbandbreedte verdubbeld wordt
*APPLAUS*

Sjongejonge :). Ben ik effe blij dat ATI concurrent is geworden van nVidia! Anders hadden we waarschijnlijk NOG wel 2 generaties GeForce chips gehad met een 128 bits bus.

Ik snap wel waarom nVidia maar een 128 bits bus wil hebben: dat scheelt aanzienlijk in het aantal layers op de printplaat. De printplaat is zo'n beetje het duurste aan de hele videokaart (het geheugen zal wel op de 2e plaats staan). Ze hadden de GeForce FX kaarten dan NOG goedkoper kunnen produceren en er NOG meer op kunnen verdienen want de prijs omlaag doen, hadden ze natuurlijk niet gedaan.

Sja, jammer, plannetje mislukt. :)

Ik als consument kan er niet rouwig om zijn.
Ik denk dat je daar een redeneerfoutje maakt want de GeForce FX heeft een printplaat met maar liefst 12-layers: dat is niet wat je bepaalt simpel of goedkoop kan noemen.
Ze zeggen dat er geen koeling nodig is voor de NV35, maar dat zal wel komen omdat ie maar op halve snelheid draait ;)
Zouden ze de huidige fx soms per-ongeluk ook op halve snelheid hebben gelaten :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True