Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: The Inquirer, submitter: zwahillius

Bij The Inquirer zijn enkele geruchten verschenen omtrent de nv40-chip, de opvolger van de NV35 die de basis vormt van de huidige GeForce FX-familie. De chip zal DirectX 9.0c compatible zijn wat inhoudt dat er ondersteuning aanwezig is voor de nieuwste versie pixel en vertex shaders. Tevens zal de core een stuk efficiënter om kunnen gaan met verschillende vertex en pixel shaders. nVidia claimt dat de NV40 tot viermaal sneller is in Doom 3 en zelfs zevenmaal sneller in Half Life 2 dan zijn voorganger. Deze getallen moeten uiteraard wel met een flinke korrel zout genomen worden, maar ze laten wel zien waar we de grootste verbeteringen kunnen verwachten.

nVidia logo (nieuwe stijl, kleiner)Over de kloksnelheden van zowel de core als het geheugen heeft nVidia momenteel nog geen besluit genomen. Gemikt wordt op een core kloksnelheid van boven de 500MHz en het geheugen hoopt nVidia op 600MHz DDR, dus 1200MHz effectief, te kunnen laten lopen. Goed nieuws voor stilteliefhebbers is dat nVidia ook de warmteproductie van de NV40, en dus de geluidsproductie van de koeler, als een prioriteit ziet. De eerste samples van de NV40 zullen deze maand aan de videokaartfabrikanten uitgeleverd worden. De eerste kaarten gebaseerd op de NV40 worden in april in de winkelschappen verwacht.

Moderatie-faq Wijzig weergave

Reacties (38)

Mooi, die redelijk hoge specs, maar daar gaat het niet om:

- Hoe efficient is hij met zijn MHZ-en (IPC)
- Wat gaat hij kosten

en, natuurlijk: is de concurerende ATI kaart sneller?

De snelste kaart leverd je alleen publiciteit op, en de mainstream kaart de omzet. En Nvidia wil het mainstream gedeelte graag terug denk ik.
(ZIjn ze sinds kort kwijt)

http://www.tweakers.net/nieuws/30888/?highlight=ati

ATI heeft dus een groter marktaandeel, en is op de markt waar ze achter lagen op nVidia aan het inlopen.
Notebooks hadden ze al, en nVidia komt daar niet eens in de buurt van ATI
Yep en hoe wordt de shaderperformance.

De NV40 schijnt als een echte variabele multi pipeline architectuur te opereren.:

http://www.beyond3d.com/forum/viewtopic.php?t=10163

Wie kan het nog volgen :D :

In ieder geval lijkt de chip minstens 2 maal meer fillrate krijgen.
Zijn ze zijn juist het high-en gedeelte redelijk kwijt geraakt aan ATi, het mainstream segment hebben ze een goede vertegenwoordiging. volgens recente cijfers heeft nVidia daar een marktaandeel van 75% terwijl Ati 25% daar tegenover zet.
Je moet budget niet verwarren met mainstream. Budget is de FX5200 e.d.

Mainstream is ook inclusief de midrange kaarten. En daar is ATI veel sterker in met hun 9600.

Overall, budget, mid-range en high-end bij elkaar was ATI net een tikkie groter dan NVidia.
OMG: daar beginnen ze weer. 4x sneller dan het snelste wat er nu is, 7x sneller dan ...hoppa. Zulke geluiden heb ik vaker gehoord (fx5800?) . We weten allemaal hoe dat afliep...

ps
flinke korrel zout
Wat dacht van je van pekeltruck ?
Goed nieuws voor stilteliefhebbers is dat nVidia de geluidsproductie van de nv40 ook als een prioriteit ziet
Maakten ze nog niet genoeg herrie dan :?
Geluidsproduktie= meer herrie, geluidsreduktie = minder...

voor all duidelijkheid; het zijn geruchten van onbetrouwbare bron. Veel waarde hoeven we hier dus niet aan te hechten.
Niet 4 of 7x sneller dan wat er nu is, maar 4 tot 7 x sneller in een bepaald spel. Da's nogal een verschil. Als je de preformance van de FX kaarten in HL2 hebt gezien dan is 7x zo snel als nu ongeveer 1,5 x zo snel als ATi. Dus dat valt eigenlijk allemaal wel mee.

Overigens, nVidia kaarten werken in 32bits precisie, die van ATi in 24bits. Iedereen zegt wel dat de FX kaarten traag zijn t.o.v. die van ATi, maar daar staat wel tegenover dat de FX kaarten 8bits meer precisie moeten berekenen.

Ik weet niet wat de invloed daarvan is op de preformance, maar ik denk dat als de FX kaarten ook 24bits precisie aan zouden kunnen, het nog maar de vraag is of de ATi kaarten nog wel als winnaar uit de bus zouden komen....
Overigens, nVidia kaarten werken in 32bits precisie, die van ATi in 24bits. Iedereen zegt wel dat de FX kaarten traag zijn t.o.v. die van ATi, maar daar staat wel tegenover dat de FX kaarten 8bits meer precisie moeten berekenen.
Heb je een bron ? Het is volgens mij andersom..
ja ze renderen 32bit floating point IN HET BESTE GEVAL, maar aangezien de kaart op die pricisie niet vooruit te branden is schalen ze 9/10 keer terug naar 16 of zelfs 12 of 8 bit, voor een bron hiervoor zoek de artikelen die dateren rond de HL2 benchmarks, toen is er genoeg discussie over geweest.

en over of je het nu ziet of niet, daar zijn ze bij nVidia ook nog niet helemaal niet uit, want soms zeggen ze "neej joh 24 bit van ATi is veel te veel, 16 bit is zat", maar een volgende keer is het "24 bit? neej!!! 32 bit anders ziet het er niet uit man!"

voor sommige helehelehele lange berekeningen worden gedaan waarbij in 24 bit de preciese verloren drijgt te gaan zou 32 bit voordeel opleveren, maar die situaties zijn op dit moment niet aan de orde PSenVS 3.0 gaan daar misschien wel verandering in brengen.

Feit is dat nVidia kaarten op die moment zelfs in speciale 16 bit paden de 24 bit van ATi niet bij kunnen houden (zie weer zelfde artikelen) en verhaal van carmack een tijdje terug.
Die 32 bit van Nvidia tegenover die 24 bit van ATI zou maar boeiend zijn indien je er op je scherm iets van zou merken. Ik heb altijd al Nvidia kaarten gehad maar sinds ik op een LANpartie eens heb rondgekeken en op de visuele kwaliteit van de Radeon kaarten gezien heb weet ik heel goed wat mijn volgende kaart gaat zijn....
Zucht... daar gaan we weer... zoveelste ATi-Nvidia gemekker...

Als Nvidia dan toch als tegenprestatie zogenaamde "cheats" zou toepassen om de performance te verbeteren, zou dat dan er ook niet toe doen? Dat zie je namelijk ook niet als je zit te gamen... of er een cheat draait of niet.

Hetzelfde geldt voor 24bits en 32bits gebeuren, er is wel onderscheid maar je ziet het toch niet.

Boeit prietpraat? (spreek het eens snel uit :+)
Nope... denk het niet... dus laten we nou maar kijken hoe de kaartjes uit de bus gaan komen... :*)
in je dromen. Dacht je werkelijk dat de Fx alles constant in 32bit mode deed. Nee, die mixed daar 16bit en 12/8 bit precisie doorheen.

p.habo niks gemekker, maar iemand die onzin uitkraamt en daar nog een +2 voor krijgt mag van mij een reactie verwachten. Alleen het laatste wat ie zegt is waar, maar ja da's koffiedik kijken. ALS ik 20 was, was ik jonger dan nu.

Mijn volgende kaart ? Weet ik niet, gewoon de beste kaart voor de beste buck. Welke merk chip daarop zit, boeit me niet. Als het maar onder de 200 euro is, want meer geef ik er niet aan uit.
\[off-topic]

Ik zag de topictitel en ik durfde er meteen een krat bier op te zetten dat we met de Inquirer te maken hadden. ;)

\[/off-topic]
Ik vraag me af hoe hij in het wild zal presteren, zeker als je er een ATI tegenover zet zoals de Radeon 9800 pro of een nieuwere :)
De Radeon 9800 XT verliest bij Anandtech zijn benchmarks al van een 5950Ultra.

(Let op: overclocked)
Dan noem je ookwel een website, een aantal zeer selectieve testjes en nu niet bepaald getest op de manier dat men doorgaans een spelletje speelt..

Daarbij kom je ook aan met overclocked, komop, wel serieus blijven he!
Dan noem je ook wel een website...
ik zit persoonlijk nog 't meest te wachten op depth-adaptive tesselation die in de NV40 zou moeten komen.. de parhelia heeft 't al lang en 't wordt tijd dat ati en nvidia 't ook eens laten zien.
ATI heeft dat al lang in de huidige generatie kaarten zitten.
Enige waar ik hier niemand iets over hoor zeggen zijn de drivers.

Das is toch ECHT wel een sterk punt voor die nvidia kaarten, ze werken gewoon bijna altijd ook met de nog te releasen games wanneer die dan uit komen. Dat is bij ATi wel even anders. Dan kan een kaart NOG zo snel zijn, ik neem dan WEL de langzamere kaart als dat betekend dat bij 90% van de games, alles het gewoon meteen doet zonder eerst 2 uur lang forums te moeten doorspitten of nog beter, 3 verschillende driver versies te moeten installeren om een bepaald spel dan toch eindelijk te draaien, en ati komt dan wel mooi met die spel specifieke fixes, maar als ze hun driver pakket nou eens GOED voormekaar zouden hebben, dan zijn zulke individuele fixes niet nodig, mijn punt, NVIDA mag dan evengoed niet een potentiele winner hebben of niet die 0.14 keer de snelheids belofte waarmaken, of NET die ene decibel meer geluid maken dan een 1700watt stofzuiger, dat neem ik GRAAG op de koop toe als ik naar hun drivers kijk, wat dat betreft is nvidia per definitie al een geduchte concurent, vergis je daar niet in.

offtopic:
Ook iets wat ik mis bij benches en reviews van kaarten/games, hoelang ze bezig zijn geweest om de boel aan de praat te krijgen, of hoeveel fixes tweaks en hacks er nodig waren om tot een bench score te komen ;-)
Als er één punt is waarop NVidia het afgelopen jaar een zeeer slechte reputatie heeft opgebouwd, en ATI een goede, dan is het de drivers.

Dat drivers verhaal van ATI is verjaard. Op dit moment zijn ze veruit superieur qua drivers.

Het erge bij NVidia is de drivers zelfs steeds slechter worden, door het constante gecheat op beeld kwaliteit. (Oeps... ik moet natuurlijk "optimalisatie" zeggen).
Goed voor de concurrentie. Dat geeft Ati ook weer de nodige zorgen over hoe ze dingen beter kunnen maken.

Als het klopt is het in elk geval een interessante component voor games-systemen en nieuwe mogelijkheden in spel ontwerp. Jammer alleen dat al die dingen altijd zo duur zijn.

Nog een paar generaties en we kunnen thuis ons prive-holodekje opzetten :9
tegen de tijd dat half life 2 uit komt zijn er al weer nieuwe kaarten hoor geruchten dat ie pas in december (ja dit jaar) komt :+
"nVidia claimt dat de NV40 tot viermaal sneller is in Doom 3 en zelfs zevenmaal sneller in Half Life 2 dan zijn voorganger"

1) Héél relatief
2) Grote korrel zout.

Concreet:
a) Tov van welke kaart (van ATI dan nog? Welke type enzo...) is deze zo snel. 'Voorganger', ook vrij duidelijk.
b) Wat is een getal als niemand het kan bevestigen. En WAAR is doom3 en HL2. Buiten wat beta's zijn we er nog ver niet.
tsja zegt zoals velen zeggen natuurlijk helemaal niets die getallen, 7x sneller in HL2? das knap als het op een resolutie van 1024x768 zonder fratsen is maar alsie 7x sneller is als er op 1600x1200 of misschien hoger met 6xAA en 8xAF en alles gewoon in 32bit psiesie gebeurd ipv 32/16 en soms zelfs 12&8 voor broonen hierover moet je ff zoeken naar de verhalen die er waren rond de tijd dat er een aantal HL2 benches uitwaren, waarin stond dat er voor nVidia vele malen meer werk nodig was om dezelfde performance te halen als de ATi kaarten.

Dus zoals ik zei, de getallen zeggen niets als er geen context bij gegeven word
7x zo snel is niet zo moeilijk hoor, op 2000x2000 met 160x FSA aan en alles op max dan halen de huidige kaarten 2 fps, dus als ze er nou 14 halen is het 7x zo snel...
en hoe wou je er met die settings 14 halen?
als dit maandag al op theinquirer staat.. waarom dan pas op woensdag hier?
journalistiek correctheid : de bronnen worden gecontroleerd

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True