Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties
Bron: X-Bit Labs

X-Bit Labs bericht dat de eerste videokaarten gebaseerd op de NV36- en NV38-cores aan het publiek getoond zullen worden tijdens Computex 2003. Aangezien Computex 2003 eind september plaatsvindt zullen de eerste kaarten waarschijnlijk in oktober of november in de winkels verschijnen, circa zes maanden na de introductie van de GeForce FX 5600 en de GeForce FX 5900. Verwacht wordt dat de NV36- en NV38-cores weinig zullen verschillen van hun voorgangers, de NV31 en de NV35. De belangrijkste verbetering zullen de kloksnelheden zijn die met enkele tientallen procenten omhoog gaan:

nVidia Logo (graphics^n)Sources among graphics cards manufacturers claim that a number of companies plan to showcase their NV36- and NV38-based graphics cards at Computex Taipei 2003 in late September. The NV36 is believed to be a successor of the NV31 also known as the GeForce FX 5600, whereas the NV38 is a follower of the NV35 aka the GeForce FX 5900 GPU.
Moderatie-faq Wijzig weergave

Reacties (28)

Hopelijk krijgen we nu ook een maximaal geklokte versie met 128MB.. zodat je niet (zoals met 5900 ultra) verplicht bent een dure 256MB kaart te kopen..
Het geheugen maakt niet zoveel uit voor de kostprijs.
Het zijn meer de fabrikanten en groothandels die de prijzen opdrijven.
quote uit de conclusie van deze test tussen een 128 en 256 MB videokaart:
Als je dus tussen deze twee kaarten moet kiezen is de keuze niet moeilijk, maar dat wordt voornamelijk veroorzaakt door de keuze van AOpen om 256MB geheugen op de videokaart te parkeren. Hierdoor is de videokaart onnodig duur geworden terwijl de kaart er in de meest voorkomende gevallen zelfs langzamer op is geworden. In extreme situaties in 1600x1200 heeft het extra geheugen wel effect, maar zoals de benchmarks op de vorige pagina laten zien is de framerate dan verre van speelbaar en in de praktijk zul je deze situaties dan ook niet vaak tegenkomen.
Ofwel: geheugen drijft de prijs wel degelijk op, zeker wanneer fabrikanten duur en snel geheugen gebruiken, zoals NVidia met zijn 500MHz DDR2-geheugen.
Beetje hetzelfde dus als met de Ti4200 met 64 of 128 MB ram aan boord. Doordat geheugen toch relatief duur is, zat er op de 64 MB versies net ff sneller geheugen, wat in de regel resulteerde in een net iets betere preformance, dan voor de 128 MB versies ........... en dat terwijl de 64 Mb versie ook nog es ( logischerwijs ) goedkoper was/is.

Blijkbaar halen ze met de FX kaarten gewoon hetzelfde truukje uit. Voor de gemiddelde leek is het nog steeds zo, meer geheugen , dan vast ook sneller. Dus deze marketing truuk werkt nog steeds .............
en daarnaast zou ik nooit kiezen voor de versie met minder geheugen.
met nieuwe games, hoge resoluties, SF en AA is extre geheugen zeker geen overbodige luxe, zeker als het verschil in kostprijs klein is.
Het probleem is vaak dat de kaarten zelf te langzaam zijn om de features die werkelijk baat hebben bij 256MB geheugen te kunnen gebruiken. Resultaat is dat je de extra 128MB ook niet gebruikt.

edit:
zie ook quote/link van Swinnio dus :)
Het punt is alleen, de aanwezigheid van 256MB is voor die genoemde fabrikanten en groothandels juist een reden om de prijs nog verder op te drijven. Dus ook al zit die hoge prijs niet alleen in de hoeveelheid geheugen qua produktie, het is wel een belangrijke indirecte oorzaak.
http://www.3dgpu.com/modules/news/article.php?storyid=315

Here's the question he asked Gabe:

Is a ATi 9800pro card really alot better for HL2 then Nvidia's FX5900? Or is the difference not that big (quality & fps wise)?

Here's the answer he got:

I have been a long-time NVIDIA card user. Currently I have ATI 9800 Pro's in both my work and home machines.

The DX9 performance described by the Beyond3D article is consistent with what we've been seeing.
Hee, dat is mijn mailtje.. Zeker van halflife2.net geplukt.. :)
En weer maar eens meer snelheid..... Ze moeten bij nVidia eens dringend op bezinning denk ik. Verder timmeren op een "slechte" chip vind ik persoonlijk een slecht idee.
Een slechte chip is natuurlijk erg relatief. Maar het feit dat de GeForce FX niet echt meekan in DX9.0 is iets wat nVidia veel geld gaat kosten.
t.e.m. de GeForce 4 was nVidia min of meer koning in 3D land. ATI heeft lang gewacht met de r300.
Want na de realese van de r250 (radeon 8500) was ATI aan bezinning toe. Zeer goede kaart met brakke drivers gevolg : GF3 kan niet geklopt worden. Tegen dat ATI de drivers in orde had was de GF4 er dus ja.
Maar nVidia komt nu achtereenvolgens met een FX5800 ultra FX5900 altra en nu deze....
Hopelijk voor hen halen ze de snelheid van de Radeon die er op dat moment zal zijn. Als ze die snelhedi kunnen combineren met de beeldkwaliteit van Matrox zijn we er O+
Nvidia heeft geen andere keus dan verder timmeren met een slechte chip.
Een nieuw ontwerp kost gewoon veel tijd. Daar zijn ze al wel mee bezig met de NV40, maar in de tussentijd zullen ze toch met iets moeten komen om nog wat te verkopen.

Dan is een hoger geklokte versie van die slechte chip je enige keus.
En voorlopig gaat ze dat nog niet zo erg slecht af. In DX8 is die chip immers niet slecht, en de meeste review sites hadden tot nu toe alleen DX8 game benchmarks.

Maar als HL2 inderdaad zoals verwacht, hetzelfde patroon laat zien als TRAOD dan hebben ze echt een groot probleem. Maar totdat HL2 benchmarks verschijnen kunnen ze nog wat kaarten bijven verkopen.
de R200 was de radeon 8500, niet de R250 en hij was in t begin even snel als de GF3, later na betere drivers sneller.
mhh ben benieuwd,, de isseus die nu nog lopen betreft de voorgaande FX cores worden door Nvidia stilgezwegen en dat belooft wat voor deze intro
mhh ben benieuwd,, de isseus die nu nog lopen betreft de voorgaande FX cores worden door Nvidia stilgezwegen en dat belooft wat voor deze intro
Die issues waren met de introductie van de FX 5900 Ultra al grotendeels opgeheven! Het 128 bit brede datapad is bij de FX 5900 Ultra vervangen door een 256 bits breed datapad. De 128 bits brede pad veroorzaakte icm het gebruikte DDR-II veel problemen wat de prestatie van de kaart geen goed deed. Met gewoon DDR en een 256 bits datapad zijn de prestaties al veel beter. Doordat de prestaties van het DDR-II zo slecht waren moest het geheugen op hele hoge frequenties werken om tot redelijke prestaties te komen. Dit zorgde voor ontzettend hoge temps, wat koelings problemen met zich mee bracht. Van de FX 5900 Ultra draait het geheugen op 425 Mhz ipv de 500 Mhz van de 5800 Ultra! De koeling van deze kaart maakt al behoorlijk minder lawaai (hoewel het nog steeds niet stil te noemen valt geloof ik).

Dus ik denk dat de issues van de FX kaarten al redelijk zijn verholpen en de FX 5900 Ultra is zeker geen slechte kaart.

EDIT: qua prijs liggen de 5900 Ultra en de 9800 Pro 256 MB ook vrij dicht bij elkaar, 9800 Pro 256 MB vs 5900 Ultra

EDIT2: ff wat benchmarks opgezocht, klik Hier zie je dat nVidia qua performance zeker mee kan komen. Denk dat Ati alleen een voordeel heeft omdat Ati een aantrekkelijker midrange assortiment heeft en omdat Ati qua prijs/kwaliteit verhouding altijd zeer gunstig is! (Ben zelf zeer tevreden met m'n 9500 Pro 8-) )

@mjtdevries:
offtopic:
ik weet niet wat xavyer dan precies bedoelt. Hij doet een erg korte statement en ik maakte daaruit op dat ie de bekende problemen rond de FX bedoelde.


Maar heb je een linkje naar die problemen v/d FX met de DX9 code? Daar wil ik wel wat over lezen. Als het idd zo slecht is gesteld met de verwerking van DX9 code dan verwacht ik een nieuwe ronde van kritiek op nVidia wanneer de eerste DX9 games uitkomen.
Dat is lang niet alles.

De fx-series blijven ver achter de R3xx-serie in dx9 met pixelshader2.
Zelfs met 16 bits fp is de R3xx met 24 bits sneller.

In HL2 daarit de R9800P de dx9-shaders zelfs 5-10 maal sneller dan de FX5900U!

De fx is een goeie dx8 kaart, maar voor dx9 moet je bij ATI zijn en zo zoetjes aan gaan toch de 9 titel schoorvoetend uitkomen.
Ik neem aan dat Xavyer het issue bedoeld dat de FX cores DX9 code zo traag uitvoeren.

Iets wat in alle synthetische benchmarks al is gebleken, verder in TRAOD, en ook in HL2 volgens een van de ontwikkelaars daarvan.

Op beyond3D is de conclusie dat dat aan het ontwerp van de FX core ligt. Dat zou betekenen dat die problemen dan ook in de NV36 en NV38 blijven zitten.

Voor DX8 zijn de issues van de FX kaarten inderdaad wel redelijk verholpen. Maar bij die nieuwe kaarten zal nog veel meer naar de DX9 prestaties gekeken worden.
Die issues waren met de introductie van de FX 5900 Ultra al grotendeels opgeheven!
De isseus waar ik het over heb zijn nog zeker wel aan de orde en NVidia heeft ook toegegeven dat deze isseus bestaan op de FX core

http://www.nvnews.net/vbulletin/showthread.php?s=dd435fdfc301f3a7240e0 026d7c6c696&threadid=16032
Uit het DirectX9 testje van een paar dagen geleden bleek de FX maar liefst 2x zo traag te zijn als een Radeon. Nu lees ik dat de nieuwe chips van NVidia maar weinig zijn veranderd?

Ik zie het slecht in voor nvidia... Hij die ooit 3DFX van de troon stootte ligt er nu zelf vanaf :P
Uit het DirectX9 testje van een paar dagen geleden bleek de FX maar liefst 2x zo traag te zijn als een Radeon. Nu lees ik dat de nieuwe chips van NVidia maar weinig zijn veranderd?
Als er in die test de FX5600 werd getest kan dat best, dat is namelijk een opgevoerde Geforce 4 Ti4200, die niet meer de allersnelste is tegenwoordig.

De FX 5800/5900 (Ultra) doet echter niet snel onder voor de snelste Radeon kaarten. De 5900 Ultra is zelfs aardig wat sneller.

Om even op het artikel te reageren: Tussen fases zoals deze NV36 en NV38 vind ik nooit zo interessant, want er wordt maar zelden flink uitgepakt qua nieuwe features of echte snelheidsverbeteringen ten opzichte van de voorgangers.

Zelf ben ik meer benieuwd naar bijvoorbeeld de NV40, aangezien die weer met nieuwe features moet komen.
Deze kaarten zijn alleen maar opgevoerde varianten van de huidige kaarten met miniscule verbeteringen.
Als er in die test de FX5600 werd getest kan dat best, dat is namelijk een opgevoerde Geforce 4 Ti4200, die niet meer de allersnelste is tegenwoordig
Nee er werd wel degelijk een 5900 getest.
Het ging om TR: AoD benches van beyond3d:

http://www.beyond3d.com/misc/traod_dx9perf

Hier werd de hele FX reeks compleet met de grond gelijk gemaakt door de Radeons.
"FX5600 werd getest kan dat best, dat is namelijk een opgevoerde Geforce 4 Ti4200"

Klinkklare onzin; de FX heeft een geheel andere core...moet ook wel, want anders kan die niet gebruik maken van programeerbare shaders van dx9...de ti4xxx is gewoon een dx8 kaart.
Nvidia heeft nog steeds winst maar dat wordt langzaam minder. 3DFX had gewoon een groot probleem met de Voodoo4 die amper compatibiliteit had met games en daardoor verdienden ze amper iets met die kaart.Nvidia heeft nog wat verdient aan de FX5600 en de 5800 die nog wel wat op leverden.
De introductiedatum vam deze cores duidt erop dat de introductie van de geheel nieuwe NV40 core vertraging oploopt. Die zou oorspronkelijk rond het einde van 2003 verschijnen en nog net de lucratieve kerstdagen meepakken. Het is nogal onlogisch om een licht gewijzigde NV35 core (want dat is de NV38) te introduceren vlak voordat je een sterk gewijzigd model - de NV40 - op de markt brengt. Het ligt dan ook voor de hand de de NV40 pas ergens in de eerste helft van 2004 zal verschijnen, waarmee Nvidia afwijkt van de bestaande roadmaps.
Wie krijgt er nou met kerst een videokaart van 500-600 euro's?
Nou ikke toevallig.
Jah en dan maar hopen dat ze het gaan redden tegen Ati zijn R420. Hun hebben ook gezien wat de FX5900 kan doen en ze brengen al geen R400 meer uit maar meteen de R420. Mischien omdat ze nu toch de 0.13 gaan gebruiken ipv 0.15 voor de R3XX serie. MAar we zullen wel zien :)
ik heb een FX5900 van asus, maar mij zal het worst wezen dat een vriend van me met zn 9800pro een paar frameptjes meer trekt in quake
De ati is gewoon iets sneller

Live with it

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True