Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: The Register

We weten het zeker, of in ieder geval The Register weet het bijna zeker. nVidia zal op 13 april aanstaande de nieuwe videochip van het bedrijf lanceren, dit heeft namelijk een bron dicht bij het hete vuur vernomen. De bron kon echter niet bevestigen of de NV40 met zestien pipelines of de NV45 met PCI Express de nieuwe chip gaat worden. Normaal gesproken zal dit de NV40 zijn, maar er zijn enige twijfels hierover ontstaan, zeker nadat de specificaties van de ATi R420 min of meer bekend zijn geworden. nVidia logo (nieuwe stijl, kleiner)

Hoewel de verwachting is dat de NV40 geen native PCI Express-ondersteuning zal hebben, kan er misschien een trucje door nVidia worden uitgehaald, waardoor dit niet zo'n probleem zal zijn. Deze truc zal dan gebaseerd worden op de eerste PCI Express-videokaarten van het bedrijf, waarbij gebruik werd gemaakt van een AGP-naar-PCI Express bridgechip. De AGP-bussnelheid van deze videokaarten is op 8x vastgesteld en door dit onofficieel naar 16x te verhogen voldoet de nieuwe videokaart opeens wel aan de honger van een PCI Express-bus. De introductie van de NV45 - de eerste nVidia videochip met native PCI Express-ondersteuning - zou dan over enige maanden kunnen plaatsvinden, zoals eerder al werd verwacht.

Lees meer over

Gerelateerde content

Alle gerelateerde content (32)
Moderatie-faq Wijzig weergave

Reacties (33)

De bron kon echter niet bevestigen of de NV40 met zestien pipelines of de NV45 met PCI Express de nieuwe chip gaat worden.
Dat het hier gaat om NV40 lijkt me nogal logisch. Maar het gaat hier dus niet meer om de originele NV40 met 8 pipelines, want die is geschrapt. NV45 (16 pipelines) is naar voren gehaald, waarschijnlijk omdat ze wisten dat ze niet tegen de 12(16)x1 config van ATi op konden boksen met 8x1, en tegelijkertijd hernoemd naar NV40. De originele NV40 ligt dus nu ergens weg te rotten, of komt wellicht als midrange chip op de markt.

Oh ja, en op verschillende sites wordt ook al gemeldt dat dit dan hoogstwaarschijnlijk een paperlaunch is en dat de NV40 dan pas rond Juni/Juli in de winkel zou liggen.

Dit kan een nadeel voor nVidia zijn mocht dit echt zo zijn... Er wordt verwacht dat NV40 sneller zal zijn dan R420, maar R420 ligt al zo'n beetje klaar voor release. Fabrikanten hebben nu al meer dan 2 maanden kunnen spelen met R420 om eigen versies te creeeren. Komt R420 volgende maand uit, dan loopt NV zo'n 2 a 3 maanden achter, voordat ze weer op koppositie komen wat betreft snelheid. En rond de zomer staat ook R423 gepland, die waarschijnlijk 16 actieve pipes heeft (R420 zou 12 actieve hebben van de 16).

Dus hopen voor nV dat ze het niet verpesten dit keer, anders wordt het wel heel saai aan de top.
Voorlopig zijn die beweringen over 16 pipelines nog gebaseerd op geruchten van ............ The Register.

Diike kans dat nVidia toch de orignele NV40 lanceerd en dan hard aan het werk gaat om snel erna de NV45 klaar te stomen voor de markt.

Maar als The Register het kwa launchdate wel goed heeft, hebben we over een maand 'zekerheid'.
.... anders wordt het wel heel saai aan de top
Dat valt nogal mee, aangezien nVidia met FX5950 Ultra de toch momenteel net ff sneller is dan ATi.

The battle continues :Y)

[edit]
Sja, ik ga ze niet allemaal opzoeken, maar er zijn ook diverse banchmarks gedaan waar andere resultaten te zien zijn. ( overigens scoord de 5950 Ultra in stadaard Q, een betere Fbucks dan de 9800XT )

En wat ook wel leuk is, als je de oudere reviews op THG es leest, waarin andere resultaten zichtbaar worden. IN een oudere benchmark van de 9800 en 9800XT kunnen ze namelijk naar krapaan de 5900 Ultra de baas, en nu ineens ruim 'Łberlegen' aan de 5950 Ultra ? THG heeft bij mij toch lichtelijk afgedaan wat dat beteft.

Waar ik op doel, is dat de verschillen betrekkelijk klein zijn, en dat die highend markt behoorlijk niche is. De verschillen tussen ATi en nVidia zijn niet echt schokkend te noemen. Kleine verschillen, zowel in performance als in prijs. Het is continue stuivertje wisselen daar, dus ik snap niet helemaal wat het probleem is.
De verschillen zijn betrekkelijk klein, mits je geen behoefte hebt aan PS2.0 en FSAA kwaliteit.

In die review bij Tom zul je bv niet terugvinden dat de 4x FSAA kwaliteit van ATI veel beter is dan die van Nvidia. Sterker, de 2x FSAA van ATI is al zo goed als gelijk aan de 4x FSAA van Nvidia.

Wel degelijke schokkende verschillen dus voor mensen die FSAA gebruiken.

(om nog maar niet over de cheats/dubieuze optimalisaties te praten)
En de FSAA van ATi staat, iig op de Radeon 9800 standaard op 2x AAN, via DirectX override of een soort gelijk programma kun je die wel uitzetten. Bij nVidia staat dit overigens altijd standaard uit.

Wat doen de benches als je bij beide kaarten 2x FSAA aanzet? Ik verwacht dat ATI dan nog meer wint. enneh....
@CARman de nVidia FX5950Ultra is nog altijd een stuk duurder dan een ATI 9800XT dus in nou te zeggen Q/F bucks..... nee niet echt...
In die review bij Tom zul je bv niet terugvinden dat de 4x FSAA kwaliteit van ATI veel beter is dan die van Nvidia. Sterker, de 2x FSAA van ATI is al zo goed als gelijk aan de 4x FSAA van Nvidia.
Ze hebben beiden hun gebreken, wees daar maar zeker van. Hier op de review van anandtech zien we dat de kwaliteit die ATI levert op alpha blending een stuk minder goed zijn dan die van nVidia. Omgekeerd heeft ATI dan weer de troef dat de Anisotropic filtering van hen een stuk beter is etc...

Dit is volgens mij een zinloze discussie: beide kaarten hebben hun voor -en nadelen, maar uiteindelijk leveren ze toch beide uitstekende kwaliteit.
Ongelooflijk dat jij een BUG van Nvidia als betere kwaliteit aanmerkt.
Kijk nou eens goed naar dat screenshot. Zoals Nvida het rendert hoort het dus gewoon niet te zijn.
Negeer nou gewoon de gekleurde opmerkingen van Anandtech en gebruik je eigen ogen om dat plaatje te bekijken.

Licht gaat niet door een hoofd heen zoals bij Nvidia, en de gloed om een lightsaber hoort ook niet zo groot te zijn!

(Anandtech heeft ook heel wat commentaar gehad over de blunders in dit artikel)
Dat valt nogal mee, aangezien nVidia met FX5950 Ultra de toch momenteel net ff sneller is dan ATi.

Yeah right, 9800XT is de baas en de pro wint het in de meeste gevallen ook nog wel!!

http://www6.tomshardware.com/graphic/20031229/index.html
Een meer belangrijke vraag dat je jezelf kan stellen dan, is, hoe disabled zijn die 4 pipes op de 12 ( 16 ) kaart van ATI ...

De theorie is dat men 16 pipes heeft maar 1 block ( van de 4 ( 4 pipes / block ) ) disabled wanneer deze niet door het productie process geraakt. Op deze manier kunnen ze een hogere yealed halen als men alle kaarten waar 1 block beschadigt is moet wegsmijten. Maar dat betekend ook, dat er kaarten kunnen zijn met 0 beschadigde blocks.

Ik denk dat sommige tweakers nu al de mogelijkheid inzien mocht men deze weer kunnen 'activeren' net zoals met enkele andere ATI kaarten we gezien hebben ;)
Of ze bewaren de chips waarvan alle 4 de blocks het doen om bij de R423 te verkopen...
En dus een mooie kans om ze een andere naam te geven
de 422 (2x4 pipeline ok) - Radeon 9900 SE
de 423 (3x4 pipeline ok) - Radeon 9900
de 424 (4x4 pipeline ok) - Radeon 9900 XT

we zullen zien wat er gebeurd
Ik denk dat we eerst moeten afwachten op de benchmarks.
Er word echt zoveel geschreeuwd met pipelines hier en daar, heel aardig, maar gaat dit in de praktijk ook nog zo werken. Ik herrinner mij een FX5800 ultra, met ddr2 op 1 gh. Die ging die kaart van ATI er helemaal uitblazen en was op papier een verschrikkelijk grafisch monster.
Als we eerst de benches afwachten dan zien we het wel. Er worden hier oorlogen gevoerd zonder dat er ook maar 1 benchmark gedraaid word en er worden kaarten afgeserveerd voordat ze ook maar 1 pixel door hun pipeline gevoerd hebben ;)
People ease off..
Een betere ontwikkeling is in mij ogen een kaart die ipv 80 watt max 35 nodig heeft, dat is in mijn ogen een echte winner...
Een kaart die slechts 35Watt verstookt, produceert dus ook niet zoveel hitte. Met als gevolg dat ze die kaart weer hoger gaan/kunnen klokken. Met als gevolg een snelle kaart die weer 80Watt verstookt. :)
Geef mij maar die 80Watt met 16 pipes ipv die 35Watt met 7pipes dat werkt niet lekker dus 8pipes

Wattage beperking berijk je door Dieschrink en of een heel stuk minder transistor's.

35Watt houd in een minder performende kaart.

'n trade off dus.

Dus midrange kaarten met de helft aan transistoren die als eerste de nieuwe Dieschrink gebruiken zoals de RV350 reeks.
Misschien word doom3 dan ook wel echt op 15 april gereleased zoals de geruchten zeiden, dat zou dan iig wel mooi aansluiten met de niewe kaarten van nvidia (niet dat die er meteen zijn maargoed).
Alsof het aantal pipelines de engie beslissende factor is die de presties van zo'n kaart maakt. De pixel en vertex shaders zijn nog niet volledig bekent en daarbovenop moeten er nog goede drivers ontwikkeld worden die deze kaarten echt goed met de nieuwe generatie games kan laten omgaan.
Ik wacht af....
Alweer de volgende generatie games ? Er zijn nog amper games die voor de huidige generatie kaarten zijn gemaakt (2.0 shaders), over 3 jaar kunnen we pas de volgende volgende generatie verwachten die gebruik maken van de pixel/vertex 3.0 shaders.

Mischien moeten de gamemakers maar een convenant starten en de gpu bouwers verplichten een bepaalde tijd tussen het uitbrengen van nieuwe kaarten/gpuīs te houden (2 jaar ofzo).

Het is nu zo dat je videokaart al verouderd is als je er over denkt er een aan te schaffen ...

*edit, nee nee, volgende volgende is geen typo ;)
dat is altijd al zo geweest.. en vrees niet, de games die deze zomer uit zullen komen en niet zolang als hl2 en doom3 in ontwikkeling zijn geweest zullen PS3.0 ondersteunen.

Het is zo dat je een high-end videokaart 2 jaar kunt gebruiken als je hem:
A: nieuw aanschaft bij de launch, bij de update 6~9 maanden later zak hij naar de onderste regionen van high-end.
Bij de volgende grote update (een jaar na launch) zal hij tot midrange gezakt zijn.

Let wel dat Tim Sweeney heeft gezegd dat hun nieuwe Unreal product nu al nauwelijks draait op een 9700 Pro...
Dan zijn ze waarschijnlijk niet van plan het de eerste twee jaar uit te brengen, 99% van de consumenten heeft een midrange kaart of slechter :)

Maw het is over het algemeen geen goed idee iets uit te brengen waar je doelgroep de computer niet voor heeft
Nieuwe generatie features worden in het begin helemaal niet aangesproken, tegen de tijd dat ze wel aangesproken worden is de kaart te langzaam om deze volledig te ondersteunen. De nieuwe kaart dan heeft alweer nieuwere features die niet worden aangesproken, maar heeft ook snellere ondersteuning van de vorige generatie features, maarja dan wil je natuurlijk graag de allernieuwste features weer zien enz enz enz.....

maarja zo is er dus nooit echt een ideale situatie van: mooie nieuwe features in kaart en spel die ook nog eens goed draaien. beetje paradoxaal :Y)
Die steeds snellere kaarten zijn wel leuk en aardig, maar straks zijn ze zo snel dat de spellen ze niet aankunnen of b.v. niet volledig gebruiken... dan zit je daar met je gigantisch dure kaartje terwijl een GF 4MX'je ook goed was
Er zijn mensen die een pc willen om patience te spelen, die kunnen inderdaad nog gewoon af met een Geforce2MX, maar er zijn ook mensen die Doom3 en Halflife2 willen spelen, en die hebben nu al een goede mid-range kaart nodig om het spel uberhaupt te kunnen spelen...
Die steeds snellere kaarten zijn wel leuk en aardig, maar straks zijn ze zo snel dat de spellen ze niet aankunnen of b.v. niet volledig gebruiken...
Mischien moeten de gamemakers maar een convenant starten en de gpu bouwers verplichten een bepaalde tijd tussen het uitbrengen van nieuwe kaarten/gpuīs te houden (2 jaar ofzo).
Mensen, dit is toch luxe? De concurrentie is zo hevig dat de ontwikkelingen te snel gaan om bij te houden?
Is dat niet net zoiets als zoveel geld hebben dat je niet weet waar je het aan moet uitgeven... Zoveel bier hebben dat je het niet meer op kan? Zoveel naakte vrouwen dat het gaat vervelen....

Geniet er nou maar lekker van, en laat die kaartjes maar komen!
het nadeel is dat gamemakers meegaan en al heel snel je setup te langzaam is voor nieuwe games :D
Ja bij nvidia is zo'n introductie een introductie op papier duurt dan nog "6mnd" voordat je zo'n kaartje kan krijgen.
Tegen die tijd is PCI express ook geintroduceert en heb je AGP niet meer nodig.
Paper launch van de gevestigde orde (Intel, Nvidia, MS) was vroeger een middel om de aankoop van een nieuwe kaart of chip te laten uitstellen.
Tegenwoordig is het vertouwen in de "underdogs" (AMD, ATI) zo groot dat dit niet meer opgaat. Wie het eerst komt wie het eerst maalt is weer het devies. Zeker als dit wordt ondersteunt door benchmarks.

Ben benieuwd op de benchmarks van deze nieuwe kaarten.
Er zit wat in, maar een consument die geen no-how heeft van pc's maar toch wat fatsoenlijks wil (vaak weten ze niet eens waarvoor, ik ken het van m'n pa wil het nieuwste van het nieuwste maar waarvoor weet ie niet precies) en uit het verleden kennen ze de naam "Nvidia" van de pc die hun de jaren ervoor goed gevallen is (simpel omdat het systeem overkill was voor word documentjes :)) en dus nemen ze maar weer een Nvidia. Het vertrouwen in de underdogs ligt denk ik meer bij de ervaren pc gebruiker aangezien die benchmarks e.d leest.

en "Wie het eerst komt wie het eerst maalt" en "zeker als dit wordt ondersteund door benchmarks" klopt natuurlijk niet, hoe kunnen er benchmarks zijn als er geen vergelijkingsmateriaal is? tenslotte is de concurent er nog niet want "wie het eerst komt wie het eerst maalt" maar dat is mierenneukerij ;)
"Die steeds snellere kaarten zijn wel leuk en aardig, maar straks zijn ze zo snel dat de spellen ze niet aankunnen of b.v. niet volledig gebruiken... dan zit je daar met je gigantisch dure kaartje terwijl een GF 4MX'je ook goed was"

Ik wens je veel succes om een spel als Half-life, Doom of Farcry te spelen op een GF4 MX. Dit zijn wel degelijk spellen die het uiterste van je high end grafische kaart vragen.
volgensmij las ik paar dagen geleden dat the inquirer poste
dat er helemaal geen NV40 zou komen ? :S
ik hoop dat de NV40 echt komt dan ga ik the inquirer voorgoed blokken want dan is het het zoveelste bullshit verhaal van ze
maar terug ontopic ik hoop dat deze Far Cry wat beter draait dan mn Ti4200 van MSI want het wordt of deze of de R420 die mij gaat verblijden in de toekomst :)
De NV40 hadden ze geschrapt omdat ze meteen meer dan 8 pipelines wouden, nu hebben ze de geplannede NV45 een AGP slot gegeven en die weer NV40 genoemd :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True