Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: VR-Zone

Op VR-Zone zijn geruchten verschenen over de specificaties van de nVidia NV30 GPU, die in de herfst de GeForce4 op moet gaan volgen. Het bedrijf gaf al eerder aan dat men van de merknaam GeForce af wilde, vanwege de komst van een nieuwe architectuur. Deze nieuwe architectuur zal volgens het bericht Omen gaan heten, en is inderdaad behoorlijk anders opgebouwd dan we van de GeForce familie gewend zijn. Ten eerste bestaat Omen niet uit één maar uit twee chips. Beide zijn koperen 0,13 micron processors met een snelheid van 450MHz. De GPU alleen al bestaat uit 73 miljoen transistors, en deze wordt in zijn taken gesteund door een losse TT&L (True Time & Lighting) unit. Het tweetal deelt samen 128MB 750MHz DDR geheugen met een 256 bit brede databus, voor 22,4GB/s aan bandbreedte. Deze wordt efficiënt beheerd door Quad Cache, Lightspeed Memory Architecture III, een dubbele Z-Buffer, AGP8x naar het systeemgeheugen en nieuwe precaching systemen die ook door de ontwikkelaars ingezet kunnen worden.

Omen zou acht pixel pipelines hebben voor 3,6 gigapixels per seconde, en op iedere pixel vier textures per pass aan kunnen brengen. Er zouden twee pixel shader units aanwezig zijn in de GPU, waarmee onder andere hardwarematige bumpmapping en hardwarematige anisotropic filtering mogelijk zijn. De TT&L processor bestaat onder andere uit vier vertex shaders, en als we extrapoleren vanuit de GeForce4 zal dit in totaal ruim 400 miljoen vertices per seconde opleveren. Nieuw is dat de hardware met skeletten van 85 'botten' om kan gaan, iets dat lijkt op ATi's TruForm. Het geheel wordt afgemaakt met een 370MHz RAMDAC, nView multi-display technologie en een programmeerbare DVD/TV decoder. NV30 zou compatible zijn met DirectX 9.x, de laatste versie van OpenGL en zelfs met de 3dfx Glide API, die nieuw leven in is geblazen onder de naam NvBlur.

Hoeveel we van dit verhaal mogen geloven is nu natuurlijk de grote vraag. Bewijzen zijn er in ieder geval nog niet, en het is zo'n beetje algemeen bekend dat nVidia van te voren geen uitspraken doet over nieuwe producten, om zichzelf de vrijheid te geven de specificaties aan te passen als de release-datum dichterbij komt. Herkenbaar is in ieder geval de 3dfx technologie, waarover nVidia meer dan een jaar geleden al heeft verklaard dat deze in NV30 zou komen. Wie echt zekerheid wil zal echter nog een aantal maanden moeten wachten op de eerste officiële berichten.

nVidia: Ferocious graphics power
Moderatie-faq Wijzig weergave

Reacties (62)

Is dit niet een te grote stap van Nvidia?
Ik bedoel, als je de andere kaarten gaat vergelijken
gaan ze nu wel heel ver.
de snelheid die ze op dit moment halen met de
G-Force 4 is al verschrikkelijk hoog, en deze stap gaat nu nog eens veel verder!

Als de specificaties waarzijn is het de vraag of we deze herfst wel zo'n kaart nodig hebben.
Alle games die er nu zijn (en in de maak zijn) gaan bloed snel en helemaal soepel met een G-Force 4 (Ti) op hoge resoluties.

DoomIII lijkt me nou niet een G-Force 4 killer...
Ze zullen bij ID best de game zwaar maken, maar om nou een spel uit te brengen wat bijna te zwaar is voor een G-Force 4 lijkt me sterk.

Verder denk ik dat als de specificaties kloppen dat Ati toch wel met een zeer goede kaart moet komen om een goede concurent van Nvidia te blijven.

we will see what happens
Jeff_P
Ik heb nog nooit een videokaart gezien die 'te krachtig is'.. Bovendien is het een paper-release, nog 'relatief' ver verwijderd van een echte release. Enige voorzichtigheid en behoudenheid lijkt me dan ook wel op z'n plaats.

Komt nog eens bij dat een Geforce 4 4600 al zwaar onbetaalbaar is, dus deze kaart is de komende tijd al helemaal onbetaalbaar.

Ik ben i.i.g. niet van plan om meer dan 10% van mijn PC-budget te reserveren voor een videokaart.....
Als je een gamer ben, is dit juist het onderdeel wat het meeste invloed heeft op je gameperformance mits de game goed gecoded is, dus niet UT want die is net zo cpu afhankelijk.

Deze kaart geeft bv JC, of iedere andere dev. meer mogelijkheden om in Doom3 te, of andere games te zetten.
transform & lightning
Tja ik denk dat je zwaar ongelijk hebt.

als opsomming van alles wat er gezegd wordt,

Nieuwe Opengl ondersteuning, gedeeltelijke 3dfx ondersteuning, DIRECTX9!! dit heeft de geforce 4 allemaal niet!!


En over die programmeerbare dvd decoder.. zou je daar een embedded versie van Divx;-) in kunnen programeren?

Zodat als je een dvd film afspeelt ook metteen ript? Hmm dat lijkt me wel een erg foute zet van nvidia!!
Dit lijkt inderdaad sterk op wat 3dfx van plan was met de Voodoo serie. Die zou ook opgebouwd worden uit verschillende losse chips voor oa T&L. Misschien dat nVidia eindelijk wat technologie gaat gebruiken die ze via 3dfx hebben verkregen. Tot nu toe hebben we er weinig van teruggezien.
Yes, eindelijk de Voodoo 6 :)

Zo zal hij niet heten maar toch wel geinig. Misschien gaan ze net zoals 3dfx nou meer de quality kant op inplaats van alleen maar snelheid, dan liggen ze op dat front tenminste niet zoveel meer achter ATi.
3dfx heeft ook pas met de v5 de kwaliteits richting opgezocht, qua 3d kwalirteit heeft ati samen met nvidia altijd voorop gelopen, nvidia had alleen door dat het grooste deel van de kopers meer interesse had in ruwe power en minder (vaak niet eens ondersteunde) features, ik denk dat er niet superveel dingen van 3dfx zullen worden gebruikt (omdat de meeste zaken al weer achterhaald zijn).
Wat wel bijzonder is dat nvidia nu afstapt van hun 1 chip filosofie.

met de gf3 en 4 heeft nvidia eventuele achterstanden op ati al wel ingelopen, nu is het ff afwachten wat de specs van deze geforce 5 en de r300 werkelijk zullen zijn
"omdat de meeste zaken al weer achterhaald zijn" Gigapixel, 2 chips strategie, FSAA is nog steeds de betere techniek, Volgens mij komt er heel veel juist van 3dfx :9

" 3dfx heeft ook pas met de v5 de kwaliteits richting opgezocht" Bij v3 was het beeld al veel beter dan een geforce2 dus ben het niet met je eens!!

"met de gf3 en 4 heeft nvidia eventuele achterstanden op ati al wel ingelopen, nu is het ff afwachten wat de specs van deze geforce 5 en de r300 werkelijk zullen zijn" Met de geforce 4 hebben ze niet veel ingelopen kwa features... vooral met snelheid :P
Ik hoop dat het leuke tijden voor ons worden ;)
Echt mooi dat Glide weer ondersteund gaat worden. Als je je games in Glide draaide kon je met een relatief oude kaart nieuwe spellen heel goed spelen.
Ben inderdaad ook benieuwd of alleen Nvblur ondersteund zal worden, of dat hij ook backwards compatible is. Glide was zijn tijd vooruit en bood grafisch een veel beter alternatief dan openGL en D3D. Als spellen hierop geoptimaliseerd worden kunnen we uitkijken naar een heel hoop frames per seconde :)
Glide was kut en moest dood.

Glide was zijn tijd niet ver vooruit. Glide ondersteunde alleen de producten van vorig jaar en was daarom ook retesnel op oude kaarten.

Zo had Glide geen enkele mogelijkheid voor T&L, zelfs clippen moest in software gebeuren. Het was zo rotsvast aan de 3Dfx chips gelinked dat 't alleen maar langzamer ging met nieuwere generaties (die nooit zijn uitgekomen), omdat de drivers nooit iets van de CPU konden wegnemen omdat alles gedaan werd in het spel zelf, i.p.v. in de driver of de HAL.

Fair enough, OpenGL is niet ideaal, DirectX is ook niet je-van-het, maar laten we nou asjeblieft niet weer een "standaard" toevoegen.

Vesa Local Bus anyone? Blueh.
nVidia houdt aan haar beloftes om de half jaar met een "nieuw" produkt te komen. Niet dat deze Omen over een half jaar in de winkel ligt, maar ze houden keihard hun schema bij.

Eindelijk hebben ze de "door-lus" technologie van 3Dfx kunnen kombineren met die van nVidia...
Dat is wat ATI NIET was gelukt, een Radeon MAXX te maken...

Begin maar alvast te sparen voor de komende
nVidifX video kaart :)
ATi is het WEL gelukt om een Radeon 8500 MAXX te maken, alleen deze is niet te koop voor de huis tuin en keuken dwaas. hij wordt oa gebruikt in vliegsimulatoren.

En ATi KAN wel een kaart voor het publiek uitbrengen maar doet dat NIET, zelf zeggen ze dat het is omdat het dan te duur wordt, maar ik denk zelf meer dat ze het volgende product niet in de vingers willen snijden
Dab heb je daar vast een url van voor me ter onderbouwing, want ik heb dat nog nooit eerder gehoord?
Elk half jaar een nieuw product is niet de strategie van nvidia, maar elk jaar een nieuw product, na een half jaar gevolgd door een update.

En de Voodoo II gebruikte "doorlus" techniek (scan-line interleave), waarbij twee dezelfde GPU's 1 taak delen. De in het artikel beschreven techniek gebruikt twee verschillende "GPU"s voor verschillende taken
Als, ik zeg wel ALS dit bericht correct is dan wordt dit het kaartje om DooM ]|[ op te laten lopen en komen realtime pixar graphic ook wel erg dichtbij... laat maar komen zou ik zeggen, en ik ben benieuwd hoe dit het gaat doen ivm de r300
en komen realtime pixar graphic ook wel erg dichtbij
Ja, met 1 hele grote MAARRRRRR erbij: Pixar achtige plaatjes, dat kan wèl, maar niet op echte Pixar resoluties.

Reken maar dat wat je op bioscoopscherm ziet, of het nou Toy Story, Monsters Inc, Shrek of Final Fantasy is, een dusdanig hoge resolutie heeft dat je dat nooit op een monitor kan krijgen. (Zou ook overkill zijn.)

Dus: "Pixar-like graphics at typical PC monitor resolution", dat komt binnen bereik met DX 9 en NV30 / R300. Niet de volle mep op bioscoop-formaat pixelgrootte.

[edit] Even opgezocht: voor bioscoop scherm geldt een beeldverhouding van 20 : 9 en voor digitale filmprojectie hebben ze ongeveer 8 miljoen pixels per frame nodig, dat is ergens zo rond de 4200x1890 pixels. En voor Pixar kwaliteit moet dat dan ook nog minstens SuperFine FSAA ondergaan. Dat is dus nog héél ver weg.
Zitten er nu twee GPU's in, of begrijp ik dat verkeerd?
Als dat idd zo is, en dit uit zal komen zo, gaat dat ding rete veel stroom zuipen! 2 GPU's met dikke vette performance, dan kom je toch wel op een stroomverbruik uit wat iets onder die van de Voodoo5 6000 zal liggen denk ik (4 procs, maar wat minder goede).
TT&L (True Time & Lighting)
T&L staat toch voor Texture & Lightning?!
Transform & Lightning

vertex transformaties worden versneld door de TnL engine (of door vertex shaders, ligt er maar aan welk pad de developer kiest)
... maar bliksems worden er in elk geval niet opgewekt ...
0,13 micron "zuipt" al een stuk minder stroom hoor :)

Bovendien wordt alles warmer, kijk maar naar de cpu's van tegenwoordig, de Athlon wordt warmer dan de Pentium classic ondanks de vele verbeteringen op het gebied van warmte ontwikkeling.

Sneller is nog steeds (helaas), Warmer
Een beetje een 'appels met peren'-vergelijking (Vergelijk liever een P1 met een P4 of een K5 met een Athlon), maar je punt is duidelijk.

Sneller is trouwens niet hetzelfde als warmer. Natuurlijk zijn de temperaturen van de processors gestegen, terwijl de technieken om de temperatuur acceptabel te houden ook verbeterd zijn. Maar je vergeet één klein dingetje:
Het oppervlak van de chips is enorm afgenomen, waardoor minder warmte-energie afgevoerd kan worden. Dus chips zijn wel sneller en zuiniger geworden, en produceren dus minder warmte-energie. Maar door het kleinere oppervlak raken ze die warmte ook moeilijker kwijt.

Wat nVidia hier laat zien, is in dit verband toch erg interessant: Die twee chips hebben dus samen een twee keer zo groot oppervlak waarover de warmte afgevoerd kan worden! En dat zorgt dus weer voor lagere temperaturen.

Natuurlijk zijn twee chips ook duurder dan één grote, maar ik kan me voorstellen dat je nu ook Lego-achtige professionele kaarten kunt bakken: Meer power nodig? Meer chips plakken! Toch geloof ik niet dat dit de hoofdgedachte is achter deze dubbele GPU-opstelling. Wat ik wel denk, is dat 2x 73mln transistors te complex is om met de huidige technieken in één chip te zetten. Want samen hebben ze wel 3,5 keer zoveel transistors als een P4-processor! En als je dan toch dingen dubbel gaat uitvoeren (twee pixelshaders, acht pipelines etc...) dan kan dat ook met twee losse chips.

Ik gok dat er ook een Omen MX verschijnt: Slechts één GPU met de helft aan geheugen en verder weinig verschil. Dus geen extra ontwikkelingskosten, zodat wellicht de prijs van de high-end kaarten competitief kan blijven. De kosten zullen immers terugverdiend kunnen worden met de prijstechnisch interessantere MX.
Sneller is trouwens niet hetzelfde als warmer. Natuurlijk zijn de temperaturen van de processors gestegen, terwijl de technieken om de temperatuur acceptabel te houden ook verbeterd zijn. Maar je vergeet één klein dingetje:
Het oppervlak van de chips is enorm afgenomen, waardoor minder warmte-energie afgevoerd kan worden. Dus chips zijn wel sneller en zuiniger geworden, en produceren dus minder warmte-energie. Maar door het kleinere oppervlak raken ze die warmte ook moeilijker kwijt.
Wat je hier zegt klopt niet, de koel blokken van tegenwoordig zijn ook veel beter.
Dus dat verschil gaat niet op, stel dat het echt zo zou zijn als jij zegt dan zou de processor dus warmer zijn dan het koelblok.
Ik hoef geen GeForce 4 meer...tenminste als ik dit zo lees....wacht ik toch maar even met de aanschaf van een GF4 :)
tja dan kan je net zo goed nix kopen. er komt altijd iets beters.
uhm, misschien wel gelijk
maar: het verschil tussen de Geforce 3 en 4 is zowat alleen maar de hogere clock e.d.

als ze hier idd 3dFX technik in toe zouden passen, zal dat toch wel een "grotere" technologische vooruitgang zijn dan van de Gef. 2 naar 3, of 3 naar 4....?
dus wat dat betreft zou het wachten gerechtvaardigd zijn.

just my 2 cents uiteraard :)
Een interessant verhaal. Gelukkig zit de concurrentie ze op de hielen dus moeten ze wel zoiets zo snel mogelijk op de markt brengen. Maar al dat silicium geweld op meerdere IC's doet mij toch wel vrezen dat het een behoorlijke dure kaart gaat worden. Om over de koeling maar te zwijgen. ;)

Maar toch wel typisch dat het zo lang geduurt heeft dat ze die 3DFX technologie gingen overnemen, of ze hadden eerst genoeg aan de specialistische kennis om hun eigen ontwikkelde zaken sneller/beter als produkt op de markt te brengen maar moeten ze nu Ati ze op de hielen zit toch maar even de oude wilde plannen uit de kast trekken. (Even dat skelet aan de kant schuiven dan he.)
Maar toch wel typisch dat het zo lang geduurt heeft dat ze die 3DFX technologie gingen overnemen, of ze hadden eerst genoeg aan de specialistische kennis om hun eigen ontwikkelde zaken sneller/beter als produkt op de markt te brengen maar moeten ze nu Ati ze op de hielen zit toch maar even de oude wilde plannen uit de kast trekken. (Even dat skelet aan de kant schuiven dan he.)
reden dat er niet eerder 3dfx technologie is gebruikt is omdat de plannen er al langer waren voor de gf3 en gf4, je dacht toch niet dat ze die roadmaps etc op het laatste moment in elkaar flansen?

ik denk zelf btw dat het geen 2 chips worden. nvidia had ten tijde van de voodoo 5 namelijk gezegd dat ze dit nooit nodig zouden hebben en eerlijk zie ik er niet zoveel in(meer chips dus meer kosten, helemaal als de instap kaarten al 2 chips krijgen) de T&L shit enz loskoppelen van de rest vind ik wel een goed idee, mag nog wel meer gebeuren, die chips krijgen zoveel transistoren dat de yields in het begin bagger zijn en echt niet geweldig zullen worden na verloop van tijd. losse chips = minder transistoren per chip = minder kans op uitval = hogere yields.
de gedachte achter meerdere chips op een bordje is juist om goedkoper uit te zijn.

1. bedrijf ontwikkelt chipje met SLI mogelijkheden.
2. bedrijf pleurt em op een kaart
3. bedrijf vind em te traag.
4. bedrijf pleurt er 2 op een kaart.
5. bedrijf vind em goed.

met andere woorden. Het design van de chip is waarschijnlijk gewoon zo simpel dat het maken van de chip dus niet duur is.

Op deze manier wordt er ook bespaard op ontwikkelings- en materiaalkosten. Immers, er hoefde geen DDR op, SDR was genoeg, en men hoeft niet steeds nieuwe chips te bedenken.

Hoewel ik moet bekennen dat de V5 5500(dual chip) toch wel errug groot is... ik moest m'n HD naar boven kantelen om em te kunnen plaatsen.
AGP 4x and 8x
Copper Core GPU Processor 0.13 m default clock 450 MHz
73 million transistors
8 pipes
128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit
370Mhz RAMDAC
DirectX 9.x compatible
Als mensen nu nog gaan zeuren dat nVidia niet de markt leid dan weet ik het ook niet meer. Maar liefst geheugen dat bij elkaar op 750mhz werkt en dit kan worden bevoorraad door maar liefst 8 pijpleidingen en dan ook nog eens een verbinding met het moederbord van AGP 8x (2.1 Gb/s) en dan ook nog eens 64-bit :*)
Built in re-programmable DVD and TV decoder chip
Na de GeForce 2 eindelijk weer eens een kaart van nVidia die ook een tv-uitgang heeft.
En dan gaat nVidia er ook nog eens al hun techniek in stoppen van hun zelf maar ook van de overgenomen 3Dfx.

* 786562 rave17
Alleen de prijs zal wel eens behoorlijk hoog kunnen zijn :'(
Na de GeForce 2 eindelijk weer eens een kaart van nVidia die ook een tv-uitgang heeft.
Wat denk je van de GF4Ti en GF4mx!!
Volgens mij is de Ati Radeon 7500 de enige chip die de tv-out in de gpu heeft zitten ipv een losse chip (Ati - Rage Theater, nVidia - Conexant/Chrontel) op de pcb.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True