Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties
Bron: nVidia

apC wees ons op een interessante PDF die op de developer site van nVidia is te vinden. In deze PDF wordt nVidia's nieuwe architectuur voor de NV3x aangekondigd. De nieuwe architectuur, CineFX genaamd, zou het mogelijk moeten maken om in realtime games te renderen in cinema kwaliteit. Om dit mogelijk te maken worden enkele ingrijpende veranderingen in de huidige NV2x architectuur aangebracht.

*Vertex processing

In plaats van de 128 instructies van de huidige programmeerbare vertex shader in de NV2x architectuur zal de NV3x er maar liefst 65.536 ondersteunen. Loop instructies, meer constanten en registers zijn toegevoegd aan de vertexshaders. Vertexshader programma's kunnen ook een stuk langer zijn dan de 128 instructies van de NV2x. Met 1024 instructies per programma en de ondersteuning van 16 textures per pixel zou realistische vertexes mogelijk moeten worden.

*Pixel shaders

nVidia Logo (graphics^n)Ook hier een uitbreiding van het aantal instructies. Een pixel shader programma kan nu 1024 in plaats van 4 texture instructies en 1024 in plaats van 8 color instructies bevatten, met een meer realistische texture als resultaat.

*Precisie

Om nog meer realistischere kleuren weer te geven krijgt de programmeur de beschikking over 64 of 128 bits kleuren. In tegenstelling tot de Matrox Parhelia-512 die 10bits (integer) per kleurkanaal gebruikt, zal de NV3x 16 of 32 bits floatingpoint getallen gebruiken, net zoals die in de cinema worden gebruikt. Het faden van onder andere mist-effecten krijgt hiermee een nieuwe dimensie, waarbij visuele foutjes als gevolg van clipping niet meer op zouden mogen treden.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (105)

Klinkt allemaal erg goed :)
Maar hoe lang gaat het duren voordat er een game developer is die dat allemaal gaat ondersteunen en verwerken in zijn spellen. Je kan betere textures implementeren maar de vraag is of de oudere kaarten het dan ook nog lekker doen ? En daar bij komt dat de prijzen ook nog eens achterlijk hoog zijn, 400,- a 500,- voor de topmodellen is alweer een bekende prijs. Is zo'n GeForce 4 Ti4600 nou echt zijn geld wel waard, we hebben het hier dus omgerekend over zo'n FL. 875,- om het waardegevoel weer even terug te krijgen. Ik kan me nog herinneren dat ik mijn Diamond Stealth 3D 2000 4Mb kocht voor zo'n FL. 350,- toen hij uitkwam bij Hastec, dat was toen het topmodel. Daar wil ik dus mee zeggen dat de topmodellen in een relatief korte tijd meer dan verdubbeld zijn qua prijs :'( Ik voel me in principe al genaaid met mijn GeForce 4 Ti4200 128Mb voor een bedrag van 250,- Meer dan FL. 550,- en dan heb je nog geen eens het topmodel dus.
het is nog erger geweest hoor, volges mij was de gf2 ultra asus deluxe iets van 1400 gulden ofzow...
Zou erg leuk zijn, maar dat lijkt me toch wel sterk. Vooral als je kijkt naar het feit dat een GF4MX mijn GF2 UItra niet eens kan bijhouden
gf4mx = ong een gf2pro/ti oftewel dat is gewoon een marketing gpu.
pas als de hardware er is, kan de software met ondersteuning komen, dus wees blij dat IEMAND er mee afkomt :p
Ik bedoel hier mee te zeggen dat er op dit moment nog weinig spellen zijn die de GeForce 4 Ti serie met al zijn capaciteiten volledig benut. Tegen de tijd dat die spellen er zijn zijn we al weer 2 generatie's nVidia kaarten verder.
Dat zijn ineens grote sprongen. Dat Matrox 10-bits kleuren gebruikt, is wel leuk, maar zoals we inmiddels weten is de nieuwe Parhelia niet echt zo'n snelheidsmonster als op papier verwacht werd. NVidia is groot genoeg om een hoop research te doen op 3D-gebied. Ze hebben tevens ook nog kennis van wijlen 3Dfx in huis, dus NVidia staat gewoon in gunstige schoenen.

Ati heeft ook wel potentie om met hoogkwalitatieve rendering te komen, dus ben benieuwd wat de toekomst gaat bieden. Mij kan het niet snel genoeg gaan. Ten slotte ziet het 3D-gebeuren er op het moment best mooi en kwijl-opwekkend uit, maar het blijven "getekende" plaatjes. Foto-realisme begint al een beetje de kop op te steken (zie o.a. de nature-scene in 3DMark2001), maar er is nog een lange weg te gaan.
Maar de hoofdvraag is natuurlijk: wanneer is het financiel te behappen voor de consument?
Als het niet financieel te behappen is voor de consument dan zal het product slecht verkopen. Nvidia is daar dan zelf de dupe van door de kleine omzet van bijvoorbeeld alleen grafisch ontwerpers. Nee de prijsstelling zal in het begin misschien hoog zijn maar al snel dalen tot het niveau dat veel 'graphics enthousiasts' het zich kunnen veroorloven (600 euro?). Tegen de tijd dat de opvolger er weer is zakt het niveau tot een prijs die steeds meer mensen bereid zijn te betalen.
600 euro te behappen? Sorry hoor, maar daar koop ik 3 XBoxen voor :P
OddesE:
Wel eens goed gekeken naar de graphics van de films Shreck en Ice Age? De term 'games renderen in cinema kwaliteit' wil zeggen dat het mogelijk wordt om realtime te gamen met een zelfde beeldkwaliteit. Misschien nog niet met de NV30, maar met een opvolger wordt dat geen enkel probleem.

Vroeger speelde men nog Doom op een 386-pc van een paar duizend piek. Toen was het ook ondenkbaar dat men kon gamen met de grafische perfectie die Max Payne of Soldier of Fortune ][ nu halen, laat staan tegen een betaalbare prijs.
Sindsdien heeft de techniek niet stilgestaan, zodoende kan men nu op een betaalbare manier toch van deze eye-candy genieten.

Over een klein aantal jaren zal het mogelijk zijn om nog realistischer te gamen tegen een even aantrekkelijke prijs. Naar je Gamecube met zijn (tegen die tijd) prehistorische graphics kijk je dan echt niet meer om.
Theorethisch wel ja, alleen speel ik nooit benchmarks. Quake 3 op 340FPS vind ik niet zo nuttig...
The point is, tegen de tijd dat genoeg mensen zo'n kaart hebben dat er spellen worden gemaakt die hem echt nodig hebben, kun je alweer een Playstation 3 kopen ofzo. 600 Euro is echt veeel en veeeel te veel geld voor een videokaart, laat staan als je bedenkt dat je daar nog een hele PC bij moet kopen.

Geef mij dan maar een gamecube voor 219 Euro, i.p.v een PC voor 2190 Euro! Ik ben namelijk bang dat die PC niet tien keer zo leuk is of tien keer zo lang mee gaat!
nee, maar je kan wel 10x zo veel met die PC....
Console, PC, heeft allebei zo z'n voor- en nadelen. Heb allebei.

Maar waar het hier om gaat is resolutie. Kijk eens naar de scherpte van je beelden op je TV en kijk dan eens hoe het er in de bios uitziet. Een console hoeft alleen maar die TV resolutie te renderen (je ziet maar 400 x 300 TV lijnen bij 640x480 pixels vanaf je console oid). In de digitale bios moet je beter dan HDTV renderen, dat is 1920 x 1080 pixels. Dat is minstens zeg 7 keer zoveel pixels die voor elk beeldje berekend moeten worden. Thuis kun je dat momenteel alleen weergeven met een vrij dure grafische kaart op een goede computer monitor of een peperdure HD-TV. Ziet er wel te gek uit natuurlijk :9~

Waarom mag de grafische hardware van je PC dan niet veel duurder zijn dan die in je console? Lijkt me logisch..
Precies, laat dat gameconsole vs. PC nou eens ophouden het is wat anders, ze hebben beide voor en nadelen en daarmee uit. :z
das dan langzamer dan die ene nv30 ;p
Ook de gameconsoles zullen uiteraard geavanceerder worden met de tijd.
Je kunt gameconsoles niet met PCs vergelijken, daarvoor kunnen gameconsoles te weinig (alleen maar games :+).
Ja over een klein aantal jaren kijk ik niet meer om naar mijn gamecube. Jij kijkt dan echter ook niet meer om naar je PC van meer dan 2000 euro, dt is het verschil.
Over een paar jaar koop ik dan zonder schuldgevoel de gamecube 3 of weet ik veel, weer voor zo'n 200 euro, terwijl jij weer vrolijk 600 euro voor de zoveelste grafische kaart betaalt.

Als je milionair bent ofzo, knock yourself out, maar kom niet aanzetten met lulverhalen dat een PC of de videokaart van een PC veel langer meegaat, want dat is gewoon niet zo.

Een gamecube presteert minder goed dan een PC van 2000 euro, maar niet maar n-tiende zo goed. En natuurlijk kun je met een PC nog veel meer, zoals internetten en brieven typen, maar daar heb je weer geen vette PC voor nodig en al helemaal geen vette videokaart. Een Duron 800 met onboard graphics voldoet dan ook wel. Ik zeg niet dat een PC niet kan competen met consoles op het gebied van performance, want dat kan ie wel (makkelijk), maar niet op het gebied van prijs. Value-for-money kan een PC het niet winnen van een console.

* 786562 OddesE
Wat betreft value-for-money heb je helemaal gelijk, maar voor de rest is de PC prima, een PC kan simpelweg meer dan games runnen, da's alles... ;)
Waarom iederekeer de vraag of hij wel snel zal zijn?

Denk nou niet dat Nvidia een nieuwe kaart zou releasen die langzamer zou zijn vergeleken met een ouder model als een GeForce4.

Was het BTW niet samsung dat laatst een nieuwe typen geheugen ging producren dat op 1Ghz liep?

met de snelheid van toekomstige videokaarten zit het wel goed en is dat denk ik niet meer de uitdaging, maar om het beeld zo realistisch mogelijk te maken wel.
Waarom iederekeer de vraag of hij wel snel zal zijn?
Misschien wel omdat de snelste kaart op dit moment (GeForce 4 Ti 4600) toch wel laat zien moeite te hebben met zware spellen op de hoogste resolutie icm met FSAA op een redelijke hoge stand :?
Denk nou niet dat Nvidia een nieuwe kaart zou releasen die langzamer zou zijn vergeleken met een ouder model als een GeForce4.
Wat dacht je van de GeForce 3 tegen de GeForce 2 Ultra? Het is maar goed dat een tijd later de Ti 200 en Ti 500 kwamen helpen, anders was de hele GeForce 3 serie een grote flop geweest (wat het toch wel een beetje is zonder MX enzo). De GeForce 2 Ultra was op lagere resoluties zonder FSAA vaak snelle dan de GeForce 3. Alleen op hogere resoluties kom de GeForce 3 laten zien dat ie toch wel de baas was.
Was het BTW niet samsung dat laatst een nieuwe typen geheugen ging producren dat op 1Ghz liep?
Yup :) Het is idd Samsung die 1GHz DDR-II geheugen heeft geintroduceert voor de grafische markt.
met de snelheid van toekomstige videokaarten zit het wel goed en is dat denk ik niet meer de uitdaging, maar om het beeld zo realistisch mogelijk te maken wel.
Met nieuwe technieken die veel snelheid van de GPUC snoepen is snelheid nog steeds belangrijk hoor! Denk maar eens aan FSAA op max en 1600x1200.
Alleen op hogere resoluties kom de GeForce 3 laten zien dat ie toch wel de baas was.
Dat een Geforce 3 op lagere resoluties niet veel sneller is dan een Geforce2 Ultra vindt toch niemand belangrijk :?

Als je een Geforce 3 heb speel je niet op lage resoluties, maar op de hoge, wat de Geforce 2 Ultra niet trekt.

Is een leuk feit voor mensen die een Geforce 2 Ultra kochten, om dan nog te kunnen zeggen, maar op 640x480 ben ik net zo snel als jij :?
Gepost door FirePower dinsdag 23 juli 2002 - 20:15

De pas uitgebrachte Radeon 9700 schijnt 20-30% sneller te zijn dan de GF4 Ti-4200. (Ik overweeg echter ATI zelfs niet eens, omdat ze al te lang een slechte naam hebben op het gebied van drivers, IMHO.)

Het zou een blamage voor ATI zijn als een kaart met deze architectuur de Radeon 9700 nog eens met 30% overtreft. De mensen die nt de 9700 hebben gekocht, zullen dat niet erg leuk vinden. (Grof gezegd: die voelen zich bez3!kt.)
[reactie mode]
Als je zelf nooit een ATI hebt gehad hoe kan je dat dan zeggen ??
Lees eens wat reviews.

Of je nou een ATI 9700 koopt voor 400 of een Nvidia NV30 voor 600 dan mag die van Nvidia voor dat geld ook wel wat sneller/beter zijn.
[/reactie mode]

[ontopic]
Blij om te zien dat de grafische kaarten nog mooiere tijden tegemoet gaan.
Hierdoor blijven ATI & Nvidia elkaar pushen tot het uiterste.
Alleen hoop ik dat deze onwikkelingen ook betaalbaar blijven voor ons de consument.
[/ontopic]
Of je nou een ATI 9700 koopt voor 400 of een Nvidia NV30 voor 600 dan mag die van Nvidia voor dat geld ook wel wat sneller/beter zijn.
Wie zegt dat de NV30 600 gaat kosten ?? Feit is dat de Radeon 9700 in Amerika te koop is voor $400, du dat is al snel 500 tegen de tijd dat de kaart in nederland in de winkel ligt. En das DUUR voor een Ati kaart, want Ati heeft toch het imago van goedkoop zijn. Als je kijkt naar de GF4Ti4600 die je bij de introductie voor $400 kon krijgen kijkt, is het dus Ati die een steekje laat vallen. Kaarten van nVidia zijn altijd al duur geweest. (Heb nog een GF2Ultra van Creative gekocht voor F1199,-)
even voor de duidelijkheid: die ati komt over 5 weken al in de winkel voor 400-500 euro (veel, maar 850-1100 piek heeft de 7200 of 8500 in het begin ook gekost hoor). en dit is een PDF bestand van een chip die in december uitkomt en dus in januari in de winkels ligt. Een goede 4-5 maanden later....

Ik volg eigenlijk ook niet waarom je zegt dat ati altijd met goedkopere kaarten komt... Dat scheelde misschien wel wat, maar niet veel.. En die kaarten waren ook altijd hooguit net zo snel als de huidige nvidiakaart die al een tijdje op de markt was... (7200vsGf2, 8500vsGf3). Nu is dat dus anders... Ik weet niet welke steek jij bedoelt, maar ik zie hem niet.. Ik zie een mooi stukje silicium dat zich in tests vrij goed houdt en de gf4 verslaat (en dik).

Tegen die tijd is deze kaart dus weer wat ouder, dus voelen de kopers van de 9700 zich misschien wel genaaid, maar niet meer dan de bezitters van een GF3 toen de 8500 uitkwam, of de bezitters van een 8500 toen de GF4-4200 uitkwam... Als je niet genaaid wil worden, moet je niet de snelste videokaart/proc/memory enzo willen hebben. Die zakt namelijk extreem snel in prijs... Kijk maar wat je voor je GF3 van 1000 piek van 9 maanden geleden kan krijgen als je hem nu gaat verkopen..... 150 euro? als je al zo'n gek vind :o.

Het is normaal dat er snellere kaarten uitkomen. Feit is, dat die 9700 30-50% (soms zelfs 150%) sneller is dan de gf4-4600 en veel meer zaken kan zoals FSAA en pixelshading zonder performancehit en dat de NV30 pas over een dikke 5 maanden in de winkels ligt.... Die is nog in de ontwikkelfase.

Dan mag die NV30 kaart wel weer sneller zijn hoor :). Misschien komt ati dan nog met een 0,13u die-shrink, een hogere clockspeed en een 256bit breed datapad voor het geheugen (jammie, 20+Gbyte/sec), dat kan die 9700 namelijk wel, maar doet-ie nog niet...

Dus als die 9700 dan naar 250-300 euro is gezakt, kan er voor dezelfde prijs als de nv30 weer een 9900 tegenaan ofzo :).
:) Wanneer zullen de eerste samples op de markt komen.

Het zat er natuurlijk in dat nVidia met gegevens zou komen zo kort na de introductie van de nieuwe kaarten van Ati :P
Da's marketing... }>
De samples zullen in augustus/september komen; tenminste als ze de final tegen kerst in de winkel willen hebben liggen zal dat wel moeten... :P
Dit is extreem. Het is niet alleen een "verbetering", dit lijkt meer op een sprong van 3 generaties in n keer. Ik was er hard over aan het denken om mijn GF2 Ti te vervangen door een GF4 Ti-4200, maar nu ik dit lees is het misschien de moeite waard om op NV30 te wachten. Het "budget" model uit de NV3x serie zou wel eens veel sneller kunnen zijn dan zelfs de GF4 Ti-4600.

De pas uitgebrachte Radeon 9700 schijnt 20-30% sneller te zijn dan de GF4 Ti-4600. (Ik overweeg echter ATI zelfs niet eens, omdat ze al te lang een slechte naam hebben op het gebied van drivers, IMHO.) Het zou een blamage voor ATI zijn als een kaart met deze architectuur de Radeon 9700 nog eens met 30% overtreft. De mensen die nt de 9700 hebben gekocht, zullen dat niet erg leuk vinden. (Grof gezegd: die voelen zich b3z3!kt.)

En dan nog, zoals hierboven gezegd: gaat dit spulletje een beetje betaalbaar worden? Want meer dan 200 euro trek ik niet uit voor een grafische kaart, dus het "trage" budgetmodel zal rond die prijs moeten zitten, wil ik er een kopen. De Ti-4200 zit nu mooi rond die prijs.)

Edit:
200 euro, of zelfs lager, in Duitsland. In Nederland is de prijs gegarandeerd hoger.

Edit 2, reactie op Dubbeldrank (stukje naar beneden :)):
Toen ik voor 350 gulden de Voodoo II 12MB kocht in februari 1999, had ik echt ht topmodel op 3d gebied. 3dfx bestaat al niet meer, en zelfs de Voodoo 5 wordt niet meer ondersteund. Ontwikkeling is goed, maar soms gaat het t snel. Je kunt niks meer kopen tegenwoordig: binnen een maand is het oud. Als een product uitkomt, liggen er al 3 opvolgers op de tekentafel. Of die zijn zelfs al in productie.... Nadat nVidia met een nieuwe chipset komt, dan komt 6 maanden later een "refresh" daarvan. (Zie GF3 => GF3 Ti-xxx). Een half jaar later weer een nieuwe chipset. Zo kun je aan de gang blijven, je zult wat moeten overslaan. Je kunt niet altijd meer een topmodel hebben, want voordat het model echt door spellen wordt gebruikt, zijn er al 3 nieuwe. Doom 3 is (IIRC) het eerste spel dat een GF3 als minimum gaat vereisen (of minstens als "zeer aanbevolen".) Maar dat is echter pas meer dan 1.5 jaar na de introductie van de GF3. De topmodellen lopen te ver voor op de software, en zijn IMHO vaak hun prijs niet waard.
Het "budget" model uit de NV3x serie zou wel eens veel sneller kunnen zijn dan zelfs de GF4 Ti-4600.
Zou erg leuk zijn, maar dat lijkt me toch wel sterk. Vooral als je kijkt naar het feit dat een GF4MX mijn GF2 UItra niet eens kan bijhouden
De pas uitgebrachte Radeon 9700 schijnt 20-30% sneller te zijn dan de GF4 Ti-4200.
Volgens AnandTech is de Radeon9700 op hoge resoluties met UT2k3 tot bijna 50% sneller dan de GF4Ti4200. Of de Radeon9700 echt kan bewijzen ook in andere benchmark programma's sneller af te zijn dan de GF4Ti is nog maar de vraag. Maar ik denk dat de Radeon, zeker in hoge resoluties, een flinke inhaalslag doet.
En dan nog, zoals hierboven gezegd: gaat dit spulletje een beetje betaalbaar worden? Want meer dan 200 euro trek ik niet uit voor een grafische kaart, dus het "trage" budgetmodel zal rond die prijs moeten zitten, wil ik er een kopen. De Ti-4200 zit nu mooi rond die prijs.
Als je niet meer dan 200 voor de nieuwe NV3x over hebt, zal je pakweg 6 maanden na de introductie van de serie pas een kaart kunnen kopen. Als je nu kijkt naar de GF4Ti200 die net onder de 200 voor de hollanders en al ruim 6 maanden op de markt is, zal dat ook wel zo zijn met de NV3x.
Edit:
200 euro, of zelfs lager, in Duitsland. In Nederland is de prijs gegarandeerd hoger.
Waarom niet gewoon bestellen vanuit de VS?? Als die mogelijkheid voor je beschikbaar is, kan dat nog wel eens het voordeligste uitpakken.
Ik overweeg echter ATI zelfs niet eens, omdat ze al te lang een slechte naam hebben op het gebied van drivers, IMHO
oeh, daar erger ik me ook zo aan he. mensen die na een jaar van goede drivers nog steeds klagen dat ze pruts zijn. net als mensen die sis afkraken op slechte chipsets. die drivers zijn al sinds jaar en dag OKE! echt superdrivers maakt ati nu. met de 9700 schijnt er zelfs een nieuwe architectuur te komen alla nvidia detonator. dus die problemen van een jaar geleden zijn nou echt wel weg hoor.
Foto-realisme ja super natuurlijk. Maar waar gaan we naar toe? Unreal 4 in foto kwaliteit? Dit gaat voor mij toch wel erg ver!!!

Stel je voor straks hebben we spellen die er echt echt uitzien. Dan schiet je dus 'echt' iemand neer. Ik persoonlijk vind dat niet kunnen. Nu zie je nog dat het 'getekend' is. Als dat straks weg is vind ik dat voor vecht/actie spellen te ver gaan!!!
Dus een gemiddelde actiefilm vind je ook te ver gaan?
Onderbouwen graag.
Als je een echte game liefhebber bent dan vind je dit toch alleen maar een ontzettend mooie ontwikkeling. Straks waan je jezelf helemaal in een film als je een spelletje speelt, supertof toch.
Mafkezen die agressief worden van spellen zul je altijd houden, minder fotorealistische spellen veranderen daar weinig aan.
Actie film is toch anders. Nu schiet je echt op iemand. Zoals je zelf al zegt voor normale mensen niet erg maar voor die gekken!?!? Wat ik dus bedoel is dat je straks je echt in het spel waant (3d bril enz). Over een tijdje krijg je een pistool in je hadden als controller brilletje op en schieten maar. Je schiet dus gericht en 'oefent' hiermee. Dit idee vind ik persoonlijk gevaarlijk!
Het zou best wel kunnen dat ze dat met die kaart kunnen; alleen zul je dat nog voorlopig niet in spellen zien (nog iig een jaar imho) .
Misschien weer met een demo of een benchmark, maar met spellen lijkt me dat nog niet mogelijk.

Tegenargument:

Maar daar hebben ze het ook niet over, ze zeggen alleen dat de mogelijkheid ermee bestaat, niet dat ze het ook kunnen uitvoeren. ;)

Als reactie op FirePower:
ATI has been running Doom3 on the Radeon 9700 for a while now, and Carmack has publicly thrown his support behind the card; keep in mind that it wasnt too long ago that Carmack wouldnt even touch the Radeon 8500 because of poor drivers.

John Carnack, van het ID ontwikkelteam raakte de 8500 zelfs niet aan vanwege slechte drivers.
Wat je niet hierbij vermeld is dat Id/John Carmack ook nog zei dat ze/hij daarentegen weer wel veel vertrouwen had in de Radeon9700!

P.S.
Ben geen specifieke Ati of Nvidia fan
Ik ben daarentegen wel
een tevreden bezitter van
n erg oude TNT2
en n GF3.
moet je dan al het mooie niet door laten gaan, om dat er een stuk of 10 gekken rond lopen?
persoonlijk vind ik van niet.
Een auto is ook een moordwapen, maar die schaffen ze ook niet af, om dat er een paar gekken mee rondrijden, en deze lijst gaat eindeloos door
Word dit dus de opvolger van de geforce 4? Zoja is hij beter dan de Ati 9700. Niet kwa snelheid maar op technische gebied. Ondersteund deze kaart meer technische snufjes of kan de ati 9700 dit ook al?
De informatie in de PDF (developer.nvidia.com/docs/IO/3121/ATT/cinefx_whitepaper.pdf) heeft betrekking tot de NV3x, dat is de opvolger van de Geforce serie, maar wordt niet de Geforce 5 maar krijgt een nieuwe naam om het verschil aan te duiden. De NV3x, te beginnen bij de NV30, zal gebruik maken van 3dfx technologie, onder andere wat betreft FSAA en 52-bit color rendering en leuke features zoals de T-Buffer van de Voodoo 5(VSA-100) en de M-Buffer van de (niet verschenen) Voodoo 6(VSA-200). Bij 52-color rendering moet je je trouwens ook weer niet al te veel voorstellen, de output blijft namelijk 32-bit, maar intern wordt er gewerkt met 52-bit; dus het wordt mooier, maar ook weer niet revolutionair. Vergelijk met FSAA, hoe meer keer FSAA, hoe langzamer de fps(frames per sec), hoe beter het beeld, eveneens bij gelijke resolutie en kleurendiepte (32-bit). Het is afwachten, maar het klinkt veelbelovend, alleen is de vraag hoeveel koeling de GPU (Graphics Procesing Unit) nodig heeft, maar leuke en interessante verbeteringen. Het enige wat er dan nog aan ontbreekt is Glide-support; dan heb je pas d perfecte kaart... (daarom zit ik nog met een Voodoo 5 in m'n systeem ;)).
Glide? wat moeten we met Glide.

DirectX & OpenGL worden gebruikt door alle merken.
Glide is merk specifiek dus zal nooit zo snel meer populair worden daar is een monopolie positie voor nodig die 3DFX in het prille begin van de 3d FPS evolutie had nVidia heeft wel een groot aandeel maar de Game ontwikkelaars willen een zo groot mogelijk publiek bereiken door een algemene API die elk merk ondersteund en dat is niet GLide .

Zodra er concurentie kwam die geen Glide kan/mag/wil gebruiken is Glide helemaal niet zo markt technisch interresant wel algemene standaarden zoals OpenGL en DirectX..

nVidia zal wel niet zo snel Glide her introduceren wel met een poging met Cg maar de andere merken zullen dat weer mijden of met eigen varianten komen.
Daar zit wat in, maar er zijn zoveel (oude) games (Unreal - anyone?) die Glide support hebben, dus dat wil je dan ook hardwarematig hebben, anders wordt het software rendering, dat is niets. 3dfx heeft altijd Glide support gehad, van de Voodoo Graphics (I) tot de Voodoo 5 en de in ontwikkeling zijnde Voodoo 6, dus op zich waren er als 3dfx niet was overgenomen nog steeds nieuwe Glide supportende kaarten geweest. Misschien wordt het niet meer d standaard die het ooit geweest is, maar nVidia zou er nog best wat mee kunnen, als ze de nieuwe features toevoegen en de performance onder Glide blijft hoger op zo'n kaart t.o.v. Direct3D en OpenGL dan krijg je games die Glide k supporten; en dat kan uitgroeien tot iets wat nVidia leuk vindt: dat iedereen hun kaarten wil omdat ze iets ondersteunen wat de concurrenten niet hebben... ;)
Waarom Glide.
Omdat het goede drivers zijn mits goed ondersteund door een programma, bijv unreal tournament.
Op mij "oude"Geforce 2 mx haalde ik 45 fps met drops tot 20 fps.
Met mijn "nog oudere" voodoo 3 3000 haalde ik 50 fps met drops tot 35.
Daarom Glide

edit:

"beetje zelfde verhaal als hedskes om 21:16"
Ik ben al sinds 1997 bezig met een 3D game, hij wordt Glide-only (dat was ht in 1997/1998); eerst op een Voodoo Graphics (I) toen op 2 Voodoo 2's (SLI, Scan Line Interleve) (daar kwam de hele buurt naar kijken destijds ;)), en nu op een Voodoo 5. Het is voor mij niet te doen om alles over te zetten naar OpenGL (Direct3D is van ome Bill dus dat doe ik sowiezo niet :+).
Op mij "oude" Geforce 2 MX haalde ik 45 fps met drops tot 20 fps.
Met mijn "nog oudere" 3dfx Voodoo 3 3000 haalde ik 50 fps met drops tot 35.
Daarom Glide.
Precies, op dezelfde kaart in Glide hogere FPS dan in Direct3D/OpenGL en op een nieuwere/betere (kwa specs dan }>) lagere FPS...
Dat is nou Glide... :P :9
Kan iemand mij dan misschien vertellen wat het 'geheim' van Glide is en waarom DirectX en OpenGL daar geen gebruik van maken?

Is het compatabliteit? Dat de Glide instructies heel erg basic zijn en strenge eisen aan de chip stellen om ze uit te kunnen voeren? Is het zo dat OpenGL/DirectX proberen zoveel mogelijk verschillende soorten chips te laten werken en dat dat daarmee rekenkracht verloren gaat? (Of ligt dat aan de driver tussenlaag die de instructies in DirectX/OpenGL om moet zetten in de instructies die de vid. kaart begrijpt?)
Glide 'ligt' inderdaad heel dicht op de chip, waardoor het er heel snel op reageert, Glide is in 1995 ontwikkeld door 3Dfx Interactive voor de Voodoo Graphics; dus door de hardwarefabrikant, en niet zoals nu door een softwarefabrikant (Direct3D - Microsoft), daarom is Glide veel sneller: het werkt beter met de chip samen. Op zich hoeft Glide niet kaart specifiek te zijn: Creative had bv. goede Glide drivers voor de nVidia TNT2 gemaakt. Het is dus niet de hardware zelf die Glide moet supporten... :)
Sorry maar da's een beetje een kromme vergelijking....

Unreal is gemaakt met Glide als de core voor de engine.. daarna is de engine opgelapt en Direct3D 'erbij' geprogrammeerd... Dan is het logisch dat Glide beter presteerd.. het was een Glide Optimized spel. Direct3D is bijvoorbeeld gebruikt voor UT2k3, daar wordt het spel specifiek voor gemaakt, als je daar een Glide implementatie een paar maanden later in zou gooien zou Glide minder presteren (ervan uit gaande dat er Glide kaarten zouden zijn die hetzelfde kunnen als zegge een GF4).
Was dat niet een wrapper? EN kwam dat ook niet een beetje omdat DirectX qua features achterliep waardoor sommige Games beter p[resteerden met Glide als wrapper dan een DirectX implementatie? Face it: Glide is oud en achterhaald door feiten.
Dat klopt niet, Direct3D is niet langzamer omdat het niet optimized zou zijn, het is nu zelfs zo'n beetje meer optimized dan Glide! :o
Als je nu een Glide-supported kaart had, dan zou bij een Glide vs Direct3D vs OpenGL test Glide absoluut zeker winnen! :)
Optimized scheelt trouwens niet direct 20 30 fps, meer in de buurt van de 2 3 (ook leuk 8)...
Ik denk niet dat NVidia iedereen zo graag aan de "Glide" wil helpen. Afgezien van het feit dat ze dan Glide zouden moeten herzien (om aan de eisen van deze tijd te voldoen) zal NVidia zich meer richten op de al huidige en toekomstige versies van de gangbare API's (OpenGL, DirectX). NVidia is dacht ik iig mede ontwikkelaar bij DirectX (OpenGL ook?).
Als ze met iets revolutionairs kunnen komen, dat duidelijk makkelijker te programmeren is dan DirectX/OpenGL en een performance winst heeft t.o.v. die twee, dan pas ZOU de gameswereld die standaard kunnen oppakken. Maar dan nog... waarom zou je als games ontwikkelaar je beperken tot alleen NVidia en daardoor bijv. de ATI gebruikers uitsluiten.

Nee, ik denk dus niet dat Glide terugkomt ;)
Jullie schijnen niet te weten dat de source van Glide reeds geruime tijd vrijgegeven is. Hierdoor is Glide niet noodzakelijk meer merk specifiek.

Wil dit zeggen dat we hier games van kunnen gaan zien? Ik hoop van niet want Glide heeft ondertussen al wel enkele jaren achterstand.
Glide is inderdaad open-source en niet merk-specifiek.
nVidia is btw. helemaal geen 'mede-ontwikkelaar' van Direct3D en/of OpenGL, het enige is dat Microsoft ze soms vraagt welke features de nieuwe versie van DirectX moet supporten, maar dat vragen ze ook aan ATI en Matrox en destijds aan 3dfx. Glide is gekocht door nVidia, al is het open-source, maar zij hebben wel de eindrechten gekregen bij de overname. Een vernieuwing van Glide zou inderdaad wel revolutionair zijn; dan heb je weer 3 API's waarvan veel games ze ondersteunen en is Glide weer het beste! :9 :) 8-) :*)
sja gf2mx is meer cpu afhankelijk ..ik had steady 100fps met een gf2mx :X
Ik denk dat als je een (dergelijke) nieuwe kaart gebruikt voor de oude spellen dat je uberhaupt geen performance probleem hebt :) Zeker als je er ook nog eens vanuitgaat dat je zo'n kaart ook niet in een pentium 200 propt.

Glide... lekker belangrijk :(
Absoluut wl dus: zonder Glide support gaat hij over op Software Rendering en dat ziet er absoluut niet uit! Dan kun je wel een leuke FPS halen in je > 2-GHz bak, maar als het er niet uit ziet ziet het er niet uit, ook niet op 200 fps.

Glide... hl belangrijk :)
Btw. heb je ooit van de term 'Glide-only' gehoord? Dan heb je niets aan een NV3x kaart; dan werkt het gewoon niet omdat hij geen Glide support heeft.

Glide... onmisbaar :+
De technische specificaties lijken voor zover ik kan zien technologisch weer een stapje verder dan ATI. Vooral op het gebied van de programmerbaarheid, maar het is ook alleen maar er verhaal zonder hardware specificaties dus der staat niks over hoveel vertexshaders er zijn hoeveel pixel shaders er zijn etc. De kleuren precisie wordt gelijk aan die van ATI maar dat is ook nodig om DirectX9 compliant te zijn, voor de rest hopen ze de rest van de extra mogelijkheden die nog niet in directX (9) te vinden is aan te kunnen bieden aan developers door middel van hun Cg taaltje die ook de assembly voor de vertex en pixelshaders kan generen. Ben benieuwd hoeveel transistortjes dit gaat kosten want dat bepaald uiteindelijk de limiet voor het aantal vertex en pixel shaders dat er op de chip past :)
In plaats van de 128 instructies van de huidige programmeerbare vertex shader in de NV2x architectuur zal de NV3x er maar liefst 65536 ondersteunen.
Een processor met 65536 instructies ? lijkt me beetje achterlijk veel, denk niet dat dit klopt imho.
Het gaat om het aantal instructies (zeg maar regels code :) ) dat een vertex shader kan bevatten. Dus niet om het aantal unieke instructies die er beschikbaar zijn, maar het aantal dingen dat door 1 vertex shader programmaatje kan worden uitgevoerd.
Dat is op dit moment n van de grote beperkingen van vertex shaders, het aantal instructies dat ze kunnen bevatten is op dit moment vrij klein.
Door dit aantal zover omhoog te gooien wordt het op de nv30 mogelijk om het verwerken van de geometrie bijna volledig op de gpu te doen. Dat gebeurt tegenwoordig nog (bijna) volledige op je cpu.
Het gaat om het aantal instructies (zeg maar regels code ) dat een vertex shader kan bevatten. Dus niet om het aantal unieke instructies die er beschikbaar zijn, maar het aantal dingen dat door 1 vertex shader programmaatje kan worden uitgevoerd.
Meteen onder het stukje wat ik gequote had staat het volgende:
Vertexshader programma's kunnen ook een stuk langer zijn dan de 128 instructies van de NV2x. Met 1024 instructies per programma en de ondersteuning van 16 textures per pixel zou realistische vertexes mogelijk moeten worden.
Dus wat is 't nu, 65536 of 1024 ?
Vertex programma's: 65536
Pixel programma's: 1024
dat zijn 65356 instructies per "mini-programma" voor 1 vertexshading

dat zijn niet allemaal verschillende, net als die 128 bij NV2x, dat is een maximum aantal die in het shading-programma per vertex geld
dat zijn 65356 instructies per "mini-programma" voor 1 vertexshading
Zie mijn reactie op de post van Lord-M.
Da's inderdaad een stuk waarschijnlijker. Het nieuwsbericht is wel wat onhandig geformuleerd.
reactie op Lord_Asswipe dinsdag 23 juli 2002 - 20:11
NVidia zet weer hoog in! Vast weer veel te hoog. Ze kunnen het misschien wel waarmaken, maar echt niet in de komende generatie!
Voor de introductie van de GeForce4 dachten we ook, dat wordt weer een opgevoerde kaart met een nieuwe architectuur. Blijkt ie toch wel "een beetje best wel goed" te zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True