Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties
Bron: Beyond3D

Op nVidia.com is een pagina verschenen waarop bevestigd wordt dat de NV40 op 13 april gelanceerd zal worden. Ondertussen is op het forum van Beyond3D een draad verschenen waarin gelekte specificaties en benchmarks worden besproken. De A2-revisie van de NV40 Ultra zou op 475MHz draaien en gebruik maken van 256MB GDDR3-geheugen met een effectieve kloksnelheid van 1,2GHz. De bespeculeerde 16x1-architectuur wordt bevestigd door de fillrate-test van 3dMark 2001: zowel in single- als multi-texturing benchmarks blaast de chip meer dan zeven gigapixels per seconde naar het scherm. De pixelshaders - één van de zwakke punten van de NV3x-serie - zouden zwaar onder handen zijn genomen en nu 2,5 tot 6 keer zo snel zijn geworden, afhankelijk van de complexiteit. Dit zou de handicap van de huidige GeForce FX in DX9-spellen zoals Half Life 2 moeten opheffen.

nVidia logo (nieuwe stijl, kleiner) Daarnaast implementeert de chip een nieuw algoritme voor anti-aliasing: RGMSAA. Op deze site staat een aantal screenshots (1280 x 960) van Unreal Tournament 2004 waarin 4xAA op deze manier wordt gerealiseerd. Tegelijk met NV40 zal ForceWare-driver versie 60.xx worden uitgebracht waarin ondere andere ondersteuning zit voor adaptive AF. Wanneer de kaarten beschikbaar zullen zijn wordt niet gemeld, maar binnen twee weken zouden de reviewers hun exemplaren in ieder geval moeten ontvangen. Verder wordt er een klein aantal benchmarks gegeven waaruit blijkt dat NV40 in hoge resoluties en kwaliteitsinstellingen het niveau van de GeForce FX 5950 ver achter zich laat. Dit komt echter wel met een prijs: The Inquirer claimt op CeBIT een NV40-kaart hebben gezien die niet één maar twee extra stekkers van de voeding nodig had. Er wordt echter gespeculeerd dat er nog een A3-versie komt die zuiniger is, maar dat zou natuurlijk ook gebruikt kunnen worden om een hogere klok neer te zetten.

SpelAAAFResolutieFPS
Halo-8x1600 x 120051,1
Far Cry--1600 x 120053,4
UT 20044x4x1600 x 120071,9
UT 20044x4x1280 x 96082,9
Star Wars Kotor4x8x1600 x 120049,3

Lees meer over

Gerelateerde content

Alle gerelateerde content (29)
Moderatie-faq Wijzig weergave

Reacties (85)

Ik dacht dat de NV40 over werd geslagen? :)
http://www.tweakers.net/nieuws/31580/

Maar dat bericht kan nu dus als onzin worden verklaard?
Er zijn geruchten dat de oorspronkelijke nv40 nu als budgetmodel nv41 door het leven zal gaan. En de nv45 zou dan inderdaad nv40 worden. Ach ja, als de performance er maar op vooruit gaat zullen we maar zeggen.
Dat gerucht zou nog steeds waar kunnen zijn, zo'n NVxx-codenaam is natuurlijk niet onlosmakelijk verbonden aan een bepaald project. M.a.w.: ze kunnen NV45 gewoon NV40 zijn gaan noemen.
LOL! Ik denk eerder dat een bericht van de Inquirer tot onzin verklaard kan worden, dan iets van Beyond3D! The Inquirer spreekt zich vaak in een week drie keer tegen met al die roddels die ze als "nieuwtjes" publiceren...

En ik denk dat nu er benchmarks zijn en er over core revisions gepraat wordt, het toch echt een bestaand produkt is hoor! :)
nope the inquirer had compleet gelijk
de orgineel geplande nv40 (1x8) is geschrap en de nv45 (1x16) is hernoemd naar nv40.
Correct me if i'm wrong, maar wat heeft 2 stekkers nou voor zin?

Het hele idee van zo'n stekker is dat je meer stroom nodig hebt dan je AGP poort kan leveren, maar voor je voeding maakt het weinig uit of je nou 1 of 2 stekkers gebruikt. Veel van die stekkers zijn al 'gesplitst' (al dan niet met een los gekochte splitter).
Het zal ws. meer te maken hebben met het verdelen van de stroom over de kaart dan met de hoeveelheid.
Het gaat idd om het verdelen van de stroom zodat de draadjes niet te warm worden / smelten. Want intern komen de voedingsdraden gewoon weer op dezelfde plek uit.

Of zou het gewoon een marketingtruuk zijn?
Nu met 2 power connectors, dus nog sneller. :P
Denk het niet. De Die-hard gamers die dit soort kaarten in eerste instantie zullen gaan kopen denken eerder in de trend van 2 connector dus meer warmte dus minder OC.
Zolang molec kabels geen 4 mm2 of nog groter worden moeten ze het met 2* 2,5 mm2 doen
jongens , over die dikte: daar klopt geen hout van. Het gaat niet om de dikte. Waarom niet ? Dan zou je nml. geen gesplitte kabel kunnen gebruiken !
Zie je het al voor je: de eerste steker in je DVD, de volgende (van dezelfde kabel) dwars naar je VGA, de tweede kabel, eerste steker in je HDD en die die tweede molex ook weer dwars naar je VGA. Want dat zou dan moeten he!

Als je een kabel met 2 molex'sen gebruikt, komt de split weer samen: het langste stuk naar je voeding; en die is nog steeds 2.5mm ......snap ?

Dus ja: als het waar is van die 2 Molexen heeft het met de juice te maken die de PCB nodig heeft. En niet met de dikte |:(
2 stekkers? Hmm, die dingen zijn al schaars in mijn kast. Ik voel meer voor de voodoo 6000 oplossing: een externe voeding met aansluiting op het stopcontact. Ontlast meteen de voeding van de PC.
Die twee stekkers heeft imo niets met de hoeveelheid stroom te maken, aangezien die ook door 1 stekker geleverd zou kunnen worden. Alle rode draden bv. welke uit je voeding komen, zitten intern echt maar op 1 punt aangesloten.

De enige reden die ik me voor 2 stekkers voor zou kunnen stellen, is dat dit de PCB makkelijker te ontwerpen maakt. Het kan best tricky zijn om overal op een PCB de juiste hoeveelheid 'juice' aanwezig te hebben, en dat men uit ontwerp/kostenoogpunt daarom maar een 2e stekker geplaatst heeft. Voor de rest zou het louter kul en grootdoenerij zijn..

//edit
zie nu dat dit een dubbelpost is.. graag naar dubbelpost modereren.. :P
"Die twee stekkers heeft imo niets met de hoeveelheid stroom te maken, aangezien die ook door 1 stekker geleverd zou kunnen worden. Alle rode draden bv. welke uit je voeding komen, zitten intern echt maar op 1 punt aangesloten. "

Nou dat heeft er alles mee te maken.
De molec steker en kabels is een vaste specificatie dus vaste algemene stroom doorvoer wat de dikte van de draad kern bepaald.
'n constante. volgens ATX specificate

Trekt een komponent meer waarbij een maximum waarde met inbegrepen marge wordt overschreden dan is een tweede molec nodig, dus met bijbehorende kabels.
Dat is allemaal best leuk en aardig, echter de max. die een molex kan leveren (qua bedrading) ligt al boven de max van wat een voeding kan leveren.
Kom zeg... Je bent toch een tweaker, wat houdt je tegen om een aparte externe voeding te maken voor dat ding... Moet toch niet al teveel moeite kosten...
dan zal je verbruik ook weer enorm omhoog gaan.
want een atx voeding is ehlemaal niet zo efficient hooor,
als ze dan met een externe powerbron komen is dit denk ik een betere oplossing dan een 2e voeding.
Nieuwe BTX voeding van een paar weken terug is al een stuk efficienter :)

desnoods hang je er nog een paar HDD's aan of iets in die richting.
Ik twijfel over die scores hoor, voor UT2004 zouden bot-match benchmarks zijn gebruikt. Die zijn normaal gesproken cpu-limited.
Waarom zou een nieuwe videokaart dan 2x hogere scores halen?
Hmm, laten we beginnen bij:
-Dubbele hoeveelheid pipelines
-Sneller geheugen
-Totaal nieuwe layout
-Pixelshaders verbeterd

dat genoeg? :+
Nee, je begrijpt het niet goed:
-Dubbele hoeveelheid pipelines
-Sneller geheugen
-Totaal nieuwe layout
-Pixelshaders verbeterd
Dat zijn allemaal dingen die tot een snellere videokaart komen. Tests wijzen echter uit dat UT2004 - botmatch niet beperkt wordt door de videokaart, maar door de CPU. Je kunt de resolutie in botmatches varieren van 640*480 tot 1280*1024 en er gebeurt weinig met de framerate.

De vraag blijft daarom: waarom haalt een snellere videokaart (met een systeem dat niet veel sneller is) een 2x zo hoog score?
Ze hebben waarschijnlijk toch custom demo's gebruikt.
Ja, of de scores zijn verzonnen :)
Als je het zo gaat bekijken dan zijn de Geforce 2 MX en een Radeon 9800XT ne zo snel in both match??

Dus de NV40 is OF een extreme snelle kaart OF er is weer gecheat (ik hoop van niet).
Nee dat is natuurlijk onzin, op een gegeven moment wordt de video kaart natuurlijk weer de bottleneck.
de screenshots zien er allemaal netjes uit, maar toch heb ik zo mijn twijfels over deze kaart..

Dat de kaart veel meer scoort in 3d mark door zijn 16×1 opstelling is te begrijpen maar toch zint het mij niet. Er staan nergens betrouwbare bronnen van FPS logs of enige aanduidingen dat het zou kunnen zijn. Ook het stukje over de 5900 ergert mij.

Een 5900 kost hedendaags al >¤250, wat zal deze kaart dan gaan kosten ? ¤700 ?
Waarom denk je nou weer 700? Meestal zijn de nieuwste kaartjes rond de 500-600. Dat was met de RadeonXT zo en ook met de 5950. Alles zakt toch een trapje naar benee. Misschien dattie in de eerste weken wel 700 zou zijn, maar zodra de leverbaarheid groter wordt stabiliseerd de prijs... }>
Ati zal naar alle waarschijnlijkheid eerder met de nieuwe kaart op de markt komen dan Nvidia, ik denk dat de prijs daarop zal worden afgestemd. Natuurlijk als het een killerkaart is zal de prijs structureel hoger zijn dan die van Ati, maar de tijd zal het leren.
Neem deze resultaten wel even met een flinke bak zout, want die Vegetto heeft ze slechts van horen zeggen (van een 'vriend') en het is ook nog niet echt duidelijk wat voor PC die vriend dan gebruikt zou hebben. Enerzijds wordt er gerept over een Athlon64 3200+, die eventueel zwaar overclocked zou zijn, en andere resultaten zouden weer van een dual Opteron systeem zijn. Foto's van de kaart heeft hij niet en de kaart zou al weer teruggestuurd zijn.

Beetje vaag nog allemaal dus maar ik hoop wel dat er een kern van waarheid in zit en dat we kunnen uitkijken naar een indrukwekkende release op 13 april.
ja, en ff later geeft UTTAR toe (die hem verdedigde en de boel suste) dat de benchmarks niet in 32bit mode maar in 16bit mode zijn gemaakt.

Dat verhaal en die benchmarks stinkt naar rotte vis.
Zoveel maakt die twee stekkers nu ook weer niet uit. Vergeet niet dat deze kaart sowieso alleen vol tot zijn recht komt op een hele nieuwe pc waarin waarschijnlijk een sterk genoege voeding zit. In een oudere pc is het per definitie af te raden deze kaart erin te stoppen, want de rest van de componenten zouden de videokaart alleen maar afremmen.

Verder zijn dit natuurlijk de "eerste benchmarks". Deze zijn (bijna) altijd positief. Ik denk dat het wel enigzins gerelativeerd zal worden zodra de grote namen, Ome Tom, Xbit, Anandtech, etc. met hun reviews op de proppen komen.

Die screenshots zien er echter wel heel goed uit. Dat is alleen maar positief voor nVidia, aangezien ze vaak bekritiseerd werden vanwege een (te) slechte beeldkwaliteit, en dat deze bij Ati veel beter zou zijn. Hopleijk leidt dit ook tot betere producten bij Ati :)
Xue Hao, ze hebben de benches gedaan met :
Athlon 64 3200+, 1GB Ram Pc-4000, HDD 160gb Sata, Gigabyte GA-K8VT800 (VIA KT880).

wak! ik lees net op dat forum dat hij 36K in 2001SE heeft gehaald }> }>
2003 wou niet draaien omdat hij aangaf dat het een undetectable device was :(
Vergeet niet dat bij de FX5800 ook speculaties ontstonden dat hij 30k haalde bij 3DMARK 01 eerst zien dan geloven.

Maar als ik die screenshots mag geloven dan is het gewoon een kaart van topkwaliteit.
Ik kan maar een ding zeggen :

Herinnert iemand zich de VooDoo 5 6000 met die externe 220 Volt aansluiting :? Je weet wel die eene Videokaart die nooit is geproduceerd en een grote flop zou zijn geweest :P

* 786562 nero355
Ik denk dat we eerst moeten wachten tot er meer benches zijn van zowel de NV40 en R420, en dan kun je pas zien hoe de kaarten echt zijn.
want wie weet hoe de ati kaart het gaat doen, volgens mij zijn daar nog geen resultaten van bekend.(toch?)
en het klinkt leuk, maar zolang er verder niets bij staat van wat voor andere hardware ze gebruikt hebben kan je dus nog niets zeggen van deze resultaten van de nieuwe Nvidia kaart

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True