Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 73 reacties
Bron: 3DChipset

Op 3DChipset is een gerucht verschenen over de NV30 van nVidia. Deze GPU moet de GeForce4 gaan opvolgen en maakt mogelijk al in augustus zijn opwachting, zoals reeds eerder hier te lezen was. 3DChipset zegt dat volgens bronnen binnen nVidia de NV30 geheugen gaat krijgen op een kloksnelheid van 900MHz. Dit geheugen, wat waarschijnlijk door Samsung geleverd wordt, zal mogelijk DDR-II geheugen betreffen. Ook wordt er een voorzichtige uitspraak gedaan over de mogelijke performance van de NV30, die zou namelijk op 200 miljoen triangles per second komen te liggen. Hoeveel we van deze geruchten moeten geloven is uiteraard weer de vraag. Vergeleken met eerdere geruchten zijn de specificaties namelijk al weer veranderd:

nVidia Logo (graphics^n) I caught a couple of NV30 specs for you. First the RAM will be running at 900Mhz. Secondly, they are claiming at this point 200 million polys per second.

Will Nvidia be using the DDR II memory that is on Samsungs product description pages? Will have to wait for that info, but it's apparent that Nvidia is banking on massed produced 900Mhz modules from Samsung. The 200 million polys per second is almost doubled that of the GeForce 4. I believe the GeForce 4 is what? 124? or something around that.

Met dank aan hetzesp voor de tip.

Moderatie-faq Wijzig weergave

Reacties (73)

Op een of andere manier beginnen die 2000000 triljard mega ultra polygoon triangels me steeds minder te boeien. Als ze nou eens de beeldkwaliteit revolutionair beter zouden maken (ze zijn het van plan te verbeteren, das al iets)...

Mijn hoop is nu nog even op de nieuwe Matrox gevestigd. Maar misschien ligt dat morgen weer helemaal anders (aangezien ze hem dan gaan presenteren).
Als je de 2D kwaliteit belangrijker vind dan de 3D kwaliteit/performance, zou je dan niet beter gaan zoeken naar een professionele 2D kaart?
Zijn gamers niet geinteresseerd in een beetje goede 2D kwaliteit, bv. wanneer ze aan 't browsen e.d. zijn?

Ik ben niet zo'n veeleisende gamer (StarCraft, WarCraft 2, C&C, etc. vergen niet zoveel van een videokaart), dus tot vandaag was ik redelijk tevreden over m'n Asus V3800 Pro (nVidia TNT2).

Vandaag is dat volledig omgeslagen: ik heb m'n oude 17" monitor vervangen door een 17" TFT-scherm, en de 2D beeldkwaliteit is nu werkelijk om te janken!
De 'antieke' kaartjes in m'n andere 2 PC's (resp. een Matrox Mystique 220 en een ATi Rage Pro) geven aan dat 't niet aan het scherm ligt, want die geven een ragscherp beeld.

En vandaag een zelfde TFT-scherm aangesloten op een Dell werkstation met ook een TNT2-kaart, met hetzelfde effect. AGP-kaartje eruit gehaald, en scherm aangesloten op z'n on-board video (Intel i815), en ook daar was 't beeld opeens gestoken scherp.

Ik kan me niet voorstellen dat nVidia niet in staat is om naast 3D performance toch niet op z'n minst de 2D kwaliteit van bovengenoemde low budget kaarten te halen...
Waar denk je precies aan bij beeldkwaliteit? Scherpte beter signaal?

Want volgens mij wordt dat laatste expres terug geschroeft... daar is die weerstands mod toch voor?
- VEEL betere kleuren (die fletse muk van mijn GF3 Ti500 kan ik zelfs met de driveropties niet corrigeren)
- scherper beeld
- laat ze op zijn minst betere kwaliteit hebben dan die ouwe G400 die ik in een andere bak heb zitten

Er is more to life than gaming, dus het zou handig zijn als ik dat kan combineren met bijvoorbeeld ontwerpwerk. :)
De 2d-beeldkwaliteit is al een stuk verbeterd met de introductie van de GF4Ti en GF4mx. Overigens hadden de reference-designs van nVidia voor de GF3 ook hele goede 2d-kwaliteit, alleen beknibbelen veel videokaartfabrikanten op de kosten door goedkopere filters toe te passen.
Ze waren bij Nvidia toch van plan om bij de NV30 ook de 2D beeldkwaliteit op te schroeven, omdat ze dan weer beter konden concurreren met bijv. Matrox.

Het is nu alleen nog maar afwachten in hoeverre dit allemaal waar gemaakt gaat worden.
Als ze nou eens de beeldkwaliteit revolutionair beter zouden maken
Daar ben ik het voor 1000% mee eens, daarom vind ik het zo jammer dat 3Dfx niet meer bestaat. Je kunt namelijk zeggen wat je wil maar een oude Voodoo kaart heeft nog steeds een mooier, warmer beeld dan een NVidia. Als je een lichtbron (lamp of zo) op een Voodoo kaartje ziet branden wil je niet meer anders, en dat is met veel meer efecten zo, helaas dat ze niet zo snel zijn :(
3Dfx is toch gekocht door nVidia :?
Ik mag toch aannemen dat nVidia gebruik gaat maken van de technologie van 3Dfx (beeldkwaliteit, 2 chips/GPU's, betere architectuur)
Euh.. als jij bereid bent om ong. 1000 piek neer te tellen voor een videokaart, kun je op de Matrox hopen.. in alle andere gevallen kun je beter ff wachten tot het najaar, zodra de R300 en de NV30 komen.. :)
Of je wacht tot deze zomer, wanneer de RV250 komt.. die heeft wellicht al betere beeldkwaliteit dan de GeForce3/4
Alsof die onder de ¤450 komen?
Op zich wel aannemelijk dat DDR-II eerder toegepast zal worden op videokaarten dan 'op je moederbord', want videokaarten hebben nu meer profijt van sneller geheugen dan processoren.
niet alleen dat, maar nvidia hoeft zich ook nix aan te trekken van chipsets van anderen en daarbij gekoppeld 't aanbod van geschikte DIMMs in de markt...

nvidia koopt die mem chips en gebruikt haar eigen memory controller.. niemand die daar moeite mee heeft denk ik :)
Dat ligt in principe aan de applicatie die je draait. Ik zou i.i.g. heel graag mijn mobo geheugen zo snel hebben... Dat is gegarandeerd sneller met applicaties die veel geheugen snel moeten kunnen muteren. Ik ben het wel eens met abraxas, het is inderdaad zo dat e.e.a. veel sneller is toe te passen op een videokaart, voor een mobo moet o.a. weer opnieuw een aparte chipset ontwikkeld worden, wat blijkbaar niet zo eenvoudig is.
Reactie op een aantal mensen die zeuren over de 2D beeldkwaliteit van geforce kaartjes (geforce 1,2 en 3)

Ik was ook niet te spreken over het 2d beeldkwaliteit... Soms was het gewoon rampzalig... resoluties van 1280*1024 werden dan al wazig weergegeven op de 22" monitor Iiyama van een vriend van me, laat staan 1600*1200

Maar ik (en die vriend van me) hebben nu een Prolink pixelview GF4 Ti4200 128MB ViVo gekocht en er is echt NIKS mis met de kwaliteit van het beeld. Die vriend van me vervangt met dat kaartje zijn Matrox G400 kaart en heeft daar geen moment spijt van gehad.

<offtopic>
Die prolink is een echte aanrader.. 4ns Samsung DDR geheugen dus van die 444mhz kan je gerust 500 maken (en nog wel meer :) )
</offtopic>

(edit: ff wat aan toe gevoegd)
offtopic:
Waar heb jij die Geforce4 Ti4200 vandaan? Want hier in Noord-Brabant istie nog nergens te krijgen :'(
En bij verschillende online shops (oa Alternate) zie ik em ook nog niet....


Denk trouwens niet dat dit een kaartje wordt met veel 'I need that one' waarde. Met net de Geforce4 op de markt en de nog steeds goedlopende Geforce2's en 3's zie ik dit niet echt een geslaagd feestje worden.
Dit wordt echt een kaart voor de patsers onder ons (no flame intended) die altijd het beste van het beste willen en daar ook de ¤'s voor hebben....

offtopic:
Als er nog zo'n 'patser' is die zijn Geforce3 of 4 (niet MX) wil degraderen naar de Internet share box; hou ik me aanbevolen (ruil tegen GF2MX400 64MB (zeer vette 2D))
Goed bezig herman !
Ik neem dit bericht echter met een korrel zout:
- Het is tegengas tegen Parhelia / ATI
- Ze missen de doelgroep totaal (wie kan dat nou betalen)
- de GPU werkt niet eens op 900mhz dus je hebt er niet zo veel aan.

Mocht het toch waar zijn dan zal het deze zomer nog een heftige strijd worden op videokaartland !

Ik zelf wacht echter op AGP 8X, de rek is wel een beetje eruit met AGP 4X.
PCI Express zou helemaal mooi zijn maar dat zit er voorlopig nog niet in...
De core zal ook niet op 900 MHz hoeven werken omdat het geheugen op 450 MHz (DDR maakt dan 900MHz) zal draaien, denk ik.
Ik vind namelijk de stap van 325MHz (GF4 Ti4600) naar 900MHz (NV30???) een beetje TE groot om te geloven dat we het hier echt over 900 MHz (dus 1800 MHz door DDR)

Al zou het wel erg gaaf zijn :9~
Zoals altijd met dit soort dingen.. Eerst zien, dan geloven. 900MHz geheugen is wel verschrikkelijk snel, trekt de AGP bus dit wel (of je computer).
Denk dat je computer en AGP bus daar in eerste instantie geen last van hebben. Gaat volgens mij eerder om de vraag of de GPU dit kan bijbenen, de bedoeling van snel geheugen lijkt mij dat de GPU snel van data voorzien kan worden en de data ook weer snel kwijt kan waardoor hij zo min mogelijk staat te nietsen.
Als nVIDIA echt 900MHz DDR RAM gaat gebruiken dan zal de GPU de bandbreedte echt wel kunnen benutten, want nVIDIA gaat geen superduur geheugen gebruiken als de GPU dan de belemerende factor is.

Feit is dat bij de tegenwoordige kaarten de bandbreedte nog steeds een probleem is, wat heel simpel is te zien aan de extra performance die je haalt als je alleen het geheugen overklokt. Daarnaast gebruiken de fabrikanten niet voor niets texture compression en andere feature's zoals het weglaten van niet zichtbare informatie. Dat doen ze alleen maar omdat er een tekort aan bandbreedte is.

Overigens denk ik niet dat nVIDIA 900MHz geheugen gaat gebruiken, de kaart moet ook nog betaalbaar blijven en met 128 of 256MB aan DDR-II RAM lijkt me dat niet echt mogelijk. Ze kunnen dan beter aan feature's werken die het mogelijk maken om met minder bandbreedte evenveel te kunnen.

Als ze wel 900MHz RAM gaan gebruiken wil dat IMO zeggen dat ze een GPU hebben ontwikkeld (of meerdere, zoals 3DFX dat deed) die die bandbreedte ook echt benut, dan ben ik echt benieuwd naar de snelheid van die kaart.

Zo en zo is dit speculeren leuk, maar totdat we de samples gezien en getest hebben van nVIDIA, ATi, Matrox en 3DLabs kunnen we niets concreets zeggen over wie wanneer de snelste is.
vergeet niet dat het nu nog nieuw is natuurlijk.. alles word naarmate er meer vraag komt word de productie groter en dus goedkoper. net als sd-ram geheugen toedertijd. een reepje van 1GB was in het begin ook 4000 gulden.

het is dus niet gelijk schreeuwen want het word vanzelf goedkoop, maar ja.. in het begin natuurlijk nog te duur :(
<offtopic>
Heb nog verhalen van mensen gehoord die 64kiloByte geheugen modules kochten zo lang als een huiskamer voor 100.000 gulden ongeveer..... Daar lachen we ons nou verrot om :-)
</offtopic>
Ja, maar het vergroot ook de bandbreedte. Er kan nu sneller over de memory bus gepompt worden dus ook meer per seconde. Het zal ook wel leuk zijn als die keer benut wordt :)
Je AGP blijft gewoon op 66MHz lopen.
Die 900MHz is alleen op de videokaart, dit is de mem die word gestuurd door de GPU, en niet je CPU.
Ik moet hier wel aan toevoegen dat dit bij de meeste tweakers (met nog een duron of thunderbird) dit wel iets van 68-74 Mhz zal zijn aangezien "ze" vaak hun FSB hebben overgeclocked :Y).
Hier behaal je dus ook alweer snelheidswinst :)
En je bankrekening offcourse. :D
Ik vindt het wel mooi dat ze het geheugen sneller maken. De snelheid van het geheugen is gewoon zeer belangrijk voor videokaarten.
Het is heel duur, dat is waar. Maar ik verwacht dat het uiteindelijk toch goedkoper word, en de langzamere geheugensoorten dus ook (net als bij processors).
Hier heeft uitendelijk iedereen baat bij. Of zie ik dit nou verkeerd?
Ik vindt het wel mooi dat ze het geheugen sneller maken. De snelheid van het geheugen is gewoon zeer belangrijk voor videokaarten.
De snelheid van het geheugen heeft natuurlijk een zeer belangrijke rol in de prestatie. Het heeft echter alleen zin om de snelheid van het geheugen omhoog te schroeven, als de snelheid van de core ook omhoog gaat. Dus een sneller geheugen alleen zal niet veel uitmaken als de snelheid van de core niet omhoog gaat.

Als je naar de toekomst van grafische kaarten kijkt, kan je dat mooi zien. De GeForce 2 MX serie (NV11) gebruikt een 175MHz core, en 166MHz geheugen. De GeForce 2 serie (NV15) gebruikt een 200MHz core en 166/200/230/250MHz geheugen. Als je naar de GeForce 3 serie (NV20) kijkt, zie je dat er een 175/200/240MHz core en 200/230/250MHz geheugen wordt gebruikt. De GeForce 4 MX serie (NV17), doet het met een 200/270/300MHz core en 171/200/275MHz geheugen. En de laatste in het rijtje; de GeForce 4 serie (NV25) gebruikt een 225/275/300MHz core en 250/275/325MHz geheugen. Je kan dus zien dat de snelheid van het geheugen in de topmodellen vrijwel dezelfde snelheid heeft als de core.

Bij de Radeon serie is dit nog beter te zien. De 8500XT, 300MHz core en 300MHz geheugen. De 8500 retail, 275MHz core en 275MHz geheugen. De 8500LE, 250MHz core en 250MHz geheugen. En de 7500 die het met 290MHz core en 230MHz geheugen doet.

Als je gaat overclocken is het dan ook in je eigen belang dat je de snelheid van zowel de core als het geheugen in gelijke stappen verhoogd. Een 20% verhoging van het geheugen heeft weinig zin als je de snelheid van de core niet vernaderd. Het zelfde geld voor het omgekeerde.
Hoezo weerstandmod?

Ik kan me niet voorstellen dat dit bewust gedaan wordt.
Er is toegegeven dat de 2 D kwaliteit ook te laag is in vergelijking met bv. Matrox en dat men er hard aan werkt om dit bij de NV30 te verbeteren.
Wegens veiligheidsredenen in VS (electromagnetische straling, denk bv. aan pacemakers) is er een filter op de output van geforce2 kaarten. Echter dit filter wordt vaak met slechte onderdelen gemaakt, zodat als je het filter weg haalt je betere 2D hebt.
Heb je heel toevallig een linkje daarover, want het zou wel een efficiente manier zijn om wat 2D performance winst te boeken.

Waarom laat nVidia (als dit zo is) niet de Out put beter beschermen ?

\[On-Topic]
Commecieele stunt denk ik zo, zoals eerder gezegd lijkt het wel op een duw in de rug van Matrox, maar dan niet in de goede richting maar het ravijn in !

En dit zal wel weer de Clockspeed zijn van de beste uit die serie, je krijgt altijd wel die rare MX'en e.d (budget markt)

* 786562 Mathizsias
Wat nou troll, het is toch zo, ze brengen altijd de budget kaarten pas later naar voren !
Ik had met google gezocht en krijg een linkje naar een oude tweakers newspost.

http://www.tweakers.net/nieuws/13382
Dat geheugen zal wel 900:2=450mhz zijn net als je 133mhz DDR (Ram) geheugen als 266mhz word verkocht.
Bij mijn oude Geforce GTS zijden ze dat er 33mhz mem op zat tegen de 183 mhz van de Radeon Nu ik zelf een Radeon 8500 heb die 275mhz mem heeft weet ik dat die 183x2 had moeten zijn dus de Radeon toen had 366mhz mem dus sneller dat dat van de Geforce 2 GTS.
Maar dat zijden ze niet dat het maal 2 moest.
Dus dit moet wel 450x2=900 zijn anders zou je 900x2=1800mhz hebben
beetje veel.
En je moet ook rekening houden bet die 256bit mem bus.
Als ik mijn 128bit 275mhz (275x2=550 mhz effectief) mem van mijn radeon 8500 neem. Stel dat dat geheugen nu 256bit was dan zou het 275x2=550mhz lopen (550x2=1100mhz effectief)
Dus moet je eerst meer weten over het type geheugen voordat je de daadwerkelijke snelheid kan bepalen.
Dat geheugen zal wel 900:2=450mhz zijn net als je 133mhz DDR (Ram) geheugen als 266mhz word verkocht.
Ja, klopt. De GeForce 4 Ti 4600 gebruikt 650MHz DDR geheugen, dus 325MHz
Bij mijn oude Geforce GTS zijden ze dat er 33mhz mem op zat...
Ik denk dat je een GeForce 2 GTS bedoeld. Die gebruikt idd een 200MHz core en 333MHz DDR (166MHz) geheugen.
...tegen de 183 mhz van de Radeon
Voor zover ik weet bestaat er geen Radeon die 183MHz geheugen gebruikt. De 8500XT gebruikt een 300MHz core en 600MHz DDR (300MHz) geheugen. De 8500 retail gebruikt een 275Mhz core en 550MHz DDR (275MHz) geheugen. De 8500LE gebruikt een 250MHz core en 500MHz DDR (250MHz) geheugen. Wellicht bedoel je een oudere kaart.
Nu ik zelf een Radeon 8500 heb die 275mhz mem heeft weet ik dat die 183x2 had moeten zijn dus de Radeon toen had 366mhz mem dus sneller dat dat van de Geforce 2 GTS.
Dat volg ik niet helemaal. Jij hebt nu een Radeon 8500 met 550MHz DDR (275MHz), das dus de retail, en niet de snelste versie. En je hebt het over een oudere Radeon die 366MHz DDR (183MHz) geheugen heeft en daarom dus sneller was dan de GeForce 2 GTS met 333MHz DDR (166MHz) :?
Leuk hoor straks heeft iedereen zon vette video kaart in z'n bakkie en dan zit ik daar met mijn G4 tewijl iedereen dan al aan de 900mhz zit.
ik vraag me af of ze over een half jaar met een video kaar aan komen zetten met een geheugen van 1500mhz of meer??waar heb je het eigelijk voor nodig :? |:(
- voor gamen met hoge resoluties...
- om morrowind met meer dan 20 FPS te kunnen spelen
- om van die driehoekige zichtbaar ploygonale figuren verlost te worden en richting toy story graphics te kunnen


Wooral dat gamen met hoge resoluties vind ik fijn. Je krijgt meer info tegelijk op het scherm hetgeen voordelen oplevert bij diverse soorten spellen (RTS en FPS games bijvoorbeeld)

en - je raakt die hinderlijke jaggies(zaagtandjes) beter kwijt in hogere resoluties!

je kunt ook meer FSAA (=mooi)toepassen met meer geheugenbandbreedte, je moet nu in morrowind de FSAA wel uitzetten anders krijg je een deuk in je aantal FPS. Schokkerig spelen is niet fijn.
900Mhz zonder geintjes???
Je kent die trukjes wel:

450Mhz in DUAL opstelling of
900Mhz door te spelen met de aantal bits naast elkaar.

In de chips-mee-gebakken klinkt ook niet. Aangezien dit geleverd wordt door Samsung, wordt dat heel moeilijk bakken }:O

Eerst zien en testen of het niet QUASIE 900 is ;)
450 mhz is geen 900 mhz.. ongeacht de breedte van de bus :) jij hebt 't echt over bandbreedte.. maar 't gaat hier enkel om een klok frequentie
Was DDR al niet quasi verdubbelen van de frequentie (Double Data Rate)... m.a.w. dat '900MHz' geheugen loopt wel degelijk op 450 echte MHz... toch :?
Tja, dat zegt nVidia, maar hoe vaak zie ik 133MHz DDR niet als '266MHz' aangeprezen.

900MHz is ongeloofwaardig, dit klinkt eerder als een erg snelle 450MHz DDR (900 effectief)- marketing lui zijn sinds de komst van de eerste double-pumped buses al bezig de boel te belazeren door te stellen dat twee Dafjes=één Ferrari. Dit is weer zo'n geval, vrees ik :r

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True