Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties
Bron: Tech Report

Bij Tech Report heeft Scott Wasson de tijd genomen om alle informatie die hij kon krijgen over de aankomende videokaarten van ATi en nVidia eens op een rijtje te zetten en er een artikel over te schrijven. Zoals bekend heeft ATi kortgeleden de Radeon 9700 gereleased en is nVidia van plan met haar NV30 de snelheden naar nog grotere hoogten op te stuwen. Het artikel bekijkt eerst uitgebreid de geschiedenis van grafische rendering en de specialistische chips die daar de laatste jaren voor worden gebruikt. Waar het vroeger onmogelijk leek dat een videokaart hetzelfde werk zou kunnen doen als een renderfarm, lijkt het er sinds de invoering van technieken als multipass-rendering op dat dit in de nabije toekomst toch wel eens zou kunnen gebeuren.

ATi Radeon 9700 GPU (R300)Na de introductie wordt DirectX 9 besproken, waarbij ingegaan wordt op pixelshaders, vertexshaders en displacement mapping. Uitgelegd wordt dat Microsoft bezig is om alternatieve manieren van renderen te ontwikkelen die gebruik maken van deze laatste techniek. Het idee is om een model met veel polygonen te ontbinden in een model met minder polygonen en een displacement map. Vervolgens wordt het vereenvoudigde model gerenderd, waarna de displacement map er bij betrokken wordt om weer tot een model met een hoge kwaliteit te komen. Deze manier van renderen kan veel efficiënter zijn dan het renderen van alle data.

Na deze algemene beschouwing over DirectX 9 - dat door beide kaarten wordt geïmplementeerd - gaat de schrijver over op de verschillen tussen de twee kaarten, voor zover die bekend zijn. Die verschillen lijken zich vooral te bevinden in de de precisie van de pixel shaders en het maximale aantal operaties dat deze shaders in een keer kunnen uitvoeren. De R300 moet het doen met 96 bits om gegevens in op te slaan, de NV30 beschikt over 128 bits. Daarmee is het mogelijk om voor elk kanaal - rood, groen, blauw en alpha - 32 bits te gebruiken, tegenover de acht bits die in de huidige videokaarten meestal worden gebruikt. De NV30 heeft hier dus het betere ontwerp, maar naar verwachting zijn ook ATi's 96 bits voorlopig voldoende.

nVidia logoHet tweede verschil zit in het aantal operaties dat de pixel shader per keer kan uitvoeren. Bij de R300 zijn er 32 adresoperaties en 64 kleuroperaties mogelijk, de NV30 moet in staat zijn om 1024 adresoperaties en 1024 kleuroperaties uit te voeren. Of dit grote verschil in de praktijk belangrijk is, is nog niet duidelijk. De DirectX 9-standaard ondersteunt niet méér dan wat de R300 biedt, waardoor de NV30 in DirectX-applicaties niet sneller zal zijn. Anders zou het echter kunnen liggen bij OpenGL-programma's, al betwijfelt de auteur of een maximum van 32/64 operaties snel een beperking zal gaan vormen. Daarnaast heeft ATi momenteel een groot voordeel boven nVidia: het heeft een kaart klaar voor het publiek, waar de release van nVidia nog enige tijd op zich zal laten wachten:

We've talked about NV30's potential leg up on ATI's R300. ATI's advantage right now is much simpler: they have a great chip ready to roll immediately. The Radeon 9700 should simply outclass anything else on the market by miles when it hits store shelves. I've seen the Radeon 9700 demonstrate in real time many of the capabilities discussed above, and I can tell you: it's for real.

NVIDIA's challenge is a little more complex. NVIDIA is banking on making the NV30 superior to the competition by harnessing a pair of new technologies: TSMC's 0.13-micron chip fabrication process and some kind of DDR-II-like memory. ATI played it safe and went with 0.15-micron fab technology for manufacturing the R300. NVIDIA's use of 0.13-micron tech could give NV30 lower costs, less heat, and higher clock speeds, but TSMC's ability to produce 0.13-micron chips in volume is unproven. The same goes for DDR-II memory, which holds promise, but could prove difficult and costly to implement or manufacture. NVIDIA risks delaying NV30 significantly by employing bleeding-edge tech. The payoff could be big, but the Christmas buying season looms, and folks are already wondering whether NV30 will make it to market in time.

Onze dank gaat uit naar sannomatic voor de tip.

Lees meer over

Gerelateerde content

Alle gerelateerde content (42)
Moderatie-faq Wijzig weergave

Reacties (61)

Het mag duidelijk zijn dat Ati een goede zet heeft gedaan...
Zoals de test al zegt , wat de NV30 in de theorie meer biedt is in de praktijk niet zichtbaar straks (mede doordat het nog niet geheel ondersteund word )
En aangezien de Ati al met een 9700 is gekomen , hebben ze toch een sterke move gedaan !
Eindelijk eens niet Nvidia die met iets *veel* beters komt !
Hier ook veel mensen die nog wat langer willen wachten op de kaarten na de r300.
Maar uit de benches blijkt dat de huidige CPU's (p4 2,4 ghz) al niet snel genoeg zijn om de r300 ten volle te benutten (in Jedi Knight 2 bijvoorbeeld scoort een p4 2,4 ghz hetzelfde met een GF4ti4600 als met r300).
Als je van plan bent je huidige systeem te upgraden met een next-gen videokaart kun je toch het beste voor de r300 gaan. De kaarten daarna, zoals de NV30, hebben waarschijnlijk nog hogere kloksnelheden waardoor ze waarschijnlijk zonde van het geld worden- ze zouden toch maar op je CPU wachten!

(oeps, dit moest in de hoofd thread, niet onder Schnautzi)
Dat is echt zo'n enorm cliche... Een P4 is belemmerd tot het voorberekenen van zo'n 200 scene's per seconde... Je hebt zowiezo niet echt heel veel aan meer dan 200fps, ook niet bij de beruchte "framedrops" als je in een druk speelveld komt met online FPS-en.. Als je gemiddeld 200fps hebt, blijft de framerate ook in "kritieke" situaties wel ok (ja, heel hypothetisch, kan je vast wel wat bedenken dat je echt daadwerkelijk last hebt met een P4-1800 en dat een 9700 ook niet helpt). Dus dat boeit niet echt heel erg.

Het klopt wel, maar dan heb je het over een Q3 engine based spel. Daarvoor koop je geen next-gen kaart. Pas als er massaal pixelshaders en DX9 featurer gebruikt gaan worden, heb je echt wat aan die kaart.

Als je een DX9 spel als Doom3 hebt, dat op een GF4 op z'n tenen 20-25fps haalt (met alle eyecandy als realtime licheffecten, multi texturing, pixelshading etc etc zoveel mogelijk aan, 1024x768 en 4xFSAA en ansio enzo), dan is dat niet omdat de CPU niet meer dan 20fps aan scene's kan creeeren, maar omdat de fillrate van de kaart dan echt zwaar de limiet is.

Een radeon 9700 kan dan zelfs op een P3/athlon-1000 nog heel erg fijn en HEEL erg effectief zijn, omdat de CPU helemaal geen last heeft van lichteffecten of FSAA of pixelshading of displacement mapping.... Wellicht perst die kaart er dan nog wel 60fps uit. De CPU zal het dan drukker hebben met zaken als AI enzo. 60fps is zeker wel merkbaar fijner dan 20-25 en de CPU zal dat ook wel kunnen :). Ineens ben je niet meer cpu limited!

Je legt IMO echt de nadruk op de verkeerde zaken. Het wordt inderdaad door veel mensen geroepen dat je niets aan die kaarten hebt, als je geen snelle CPU hebt, maar je hebt ook geen kont aan een Gforce2 als je alles op 640x480 speelt met alle lichteffecten uit en geen echte texturefiltering enzo.

En ook heb je voor deze voordelen geen 22" monitor op 1600x1200 nodig, want ook op een 17" is 1024x768 met 4X FSAA echt mooier en veel smoother dan zonder FSAA. En van FSAA merkt een processort echt helemaal niets (hoeft geen 2 scenes te maken), dus heb je (als je alleen het mooiere beeld in ogenschouw neemt) zelfs met Quake3 of Jedi Knight wat aan die kaart!
Het gaat ook niet over 200 fps hier! Jedi Knight 2 scoort op 1024*768/ 32 bit/ 85 herz zo'n 100 fps.
Met zowel de R300 als de ti4600. Pas bij 1600X1200 begint de r300 sneller te worden, dan loopt hij 10 % uit (kijk bij anandtechs r300 artikel).
Het zou dus niet direct de moeite waard zijn om meer geld voor een r300 neer te leggen voor DIT spel.

Ik ben het er niet mee eens dat een Radeon 9700 op een Athlon 1000 nog effectief kan zijn. Een Geforce 2 GTS is al sneller dan wat die 1000 mhz CPU kan bijbenen. In hogere resoluties zouden nog snellere kaarten wel helpen zeg je, maar bij hogere resoluties gaat je CPU ook meer bottlenecken en dan komt er weinig van die hoge resoluties terecht!

Voorbeeld: Op mijn Duron @ 933 en GF2 GTS is Return to Castle Wolfenstein op 640*480/32 bit altijd wel boven de 60 fps. Op 800*600 is het meestal boven de 60 fps, zodra je buiten komt daalt het vaak tot rond de 42. Als je naar 1024*768 gaat, ben je bij multiplayeren waarschijnlijk flink in het nadeel, omdat het beeld vaak schokkerig is. Vervang ik die Duron door een AthlonXP 1800+, shieten m'n framerates omhoog. Als ik echter alleen die GF2GTS door een ti4200 vervang, zal ik nauwelijks vooruitgang boeken, behalve dat ik ongeacht de resolutie FSAA aan kan zetten..
De latere generaties videokaarten hebben hardwarematige FSAA, dat helpt inderdaad, daar heb je gelijk in. Maar dan koop je toch een GF3ti200/Radeon 8500? Dan heb je alle grafische features in huis.

Je reageert trouwens alsof ik de r300 afraadt, als ik zo overkwam, dat was niet de bedoeling. In andere spellen zie je met een p4 2,4 ghz duidelijke vooruitgang als je een r300 ipv een GF4Ti4600 gebruikt.
Ik had het in mijn oorspronkelijke post over al die mensen die op de kaarten NA de r300 wachten.
Mijn punt was: het lijkt me logischer om voor de r300 te gaan omdat die meer aansluit op de vermogens van het systeem dat je nu hebt. Tenzij je meteen ook een CPU upgrade doet.
Ik denk dat dat betekend dat de R300 gewoon even rap is als een GF4Ti4600, hoor :S
Nee sommige games belasten de G-kaart nauwelijks bijvoorbeeld oude extreem optimized Game engines

Als de CPU met 'n G3 Classic gewoon bij zo'n game blijft door schalen zal een R300 ook niet veel beter doen aangezien hier een grote afhankelijkheid is van de CPU.

Dat krijg je bij lichte grafische engines en bij low resoluties.

bij moderne Gameengines die de features echt optimaler benutten is de G-kaart de bottle neck en vooral bij high resoos.

Als je dan een Ti4600 vervangt door en r300 dan zie je een verbetering van meer dan 1,5 afhankelijk wat voor extra features je aanzet zoals FSAA loopt dat op tot 2 á 3x

Dus staar je niet blind op een bench van één game waar alle latere kaarten gelijk presteren want dat zeg ook genoeg.
Want als een G3 clasicc en 7500 8500 gelijk presteerd als een G4Ti4600 dan zal een R300 dat ook doen.

"n game waar er groot verschil is tussen de G3 en G4 Ti dan zal de R300 zijn ware kracht laten zien.

D'r zijn dus zeker wel CPU afhankelijke games die veel minder G-kaart afhankelijk zijn
Nee, hij is nog veel rapper! Tot 50% rapper zelfs.
Sommige spellen vereisen dat je CPU eerst veel doet voordat je grafische kaart aan de slag kan, bij zulke spelen zul je minder verschil merken wanneer je van videokaart wisselt.
nee denk eerder dat de NV30 'n markt in treed waar de R300 al heerst en dus 'n markt deel heeft en de NV30 de kroon overneemd met een start van null af. Maar zoals al in het article gezegd wordt ontwikkelaars ondersteunen met preoriteit ten eerste die meest gemene deler dus de feautures die beide gemeen hebben en dan is dat beetje veel extra overkill in die NV30.

Die extra's in de 8500 werden ook niet massaal ondersteund tov de G3Ti en G4Ti.
En nu is die rol omgedraaied.
Ik heb het idee dat Ati in dit geval verstandig is geweest door haar pijlen niet TE hoog te richten. Daardoor is hun doel makkelijker te halen waardoor hun nieuwe kaart sneller te ontwikkelen is. Het verschil met de huidige topkaarten in 50%, een respectabele score en daardoor ook interessant.
Wat Nvidia wil is een kaart maken die 3 tot 4 keer sneller is dan alle voorgaande kaarten. Dat heeft als gevolg dat het lang duurt voordat die kaart klaar voor productie is, en op die manier dreigen ze een periode over te slaan. In de tijd die zij er nog over doen om de NV30 te maken kan Ati ook een snellere variant op de R300 maken terwijl ze een succesvolle kaart op de markt hebben.
Nou valt het wel mee, met de geforce 4 familie is nvidia natuurlijk erg goed vertegenwoordigd op de markt, maar het gaat ook om de uitstraling van het bedrijf, belangrijk voor o.a. beleggers, en die uitstraling wordt voornamelijk bepaald door de technologische stand van zaken. En daar hebben ze op dit moment in de praktijk een achterstand.
Zo op zicht lijkt nVidia vooruit strevender door meteen voor 0,13 tegaan en een uitgebreidere featureset op de toekomst gericht dus ook Floating point kleur bit dieptes voor frame buffers.

ATI en Matrox spelen het op save en een early time to market stratiegie.

Dat viel bij Martox tegen maar dat komt door de vele consessies aan hun 0,15 design.
En ATI heeft op dat gebied veel beter produkt op 0,15 met veel minder consessies klaar gestoomd. Die voor 'n keer dus veel eerder uitkomt dan de nVidia tegen hanger dus een voorsprong.
Tegen de tijd dat NVidia zijn NV30 uitbrengt met 0.13 micron procede heeft ATi waarschijnlijk al een .13 micro versie van de R300. De chips worden gewoon in dezelfde fabriek gemaakt in Taiwan waarschijnlijk. Ik denk dan ook dat NVidia op moet schieten met hun nieuwe chip, anders gaat ATi teveel marktaandeel wegsnoepen. En dan ga je hetzelfde zien als bij 3dfx die maar bezig bleven met hun "rampage" maar ondertussen had NVidia de leiding al overgenomen...
Deze informatie over de NV30 is bij lange na niet juist, op verschillende sites zijn al quotes te vinden, waaronder op anand en beyond3d, dat deze info totaal niet klopt!.

Bv 1024 adresoperaties is zeer waarschijnlijk bij lange na niet te verwachten bij de NV30, de aanwezige info over de NV30 lijkt meer op een poging men van de R9700 af te houden volgens sommigen.
Tja die R300 komt er al en is dus binnenkort te koop terwijl de spect van de NV30 nog niet eens officieel bekend zijn.

Dus meer 'n voorbarige Speculaas artikel maar daar is ie ook van bewust maar had het om die reden beter kunnen laten en gewoon wachten op de oficiele spects anders discusieer je over een fanta kaart

hogere spects creerd ook hype en hoge verwachtingen.
De radeon 8500 had een adviesprijs van $299. De ti 4600 had volgens mij een advies prijs van $399. Bovendien was de introductie prijs van de radeon 8500 lager dan de verkooprijs van de geforce 3 die toen al een tijdje uit was.

Tijdens de ontwikkeling van de r300 heeft Ati een keer naar buiten gebracht dat ze eenzelfde prijs beleid wilden voeren voor de radeon 9700 als voor de radeon 8500, oftewel een introductieprijs van $299. Vanwege de enorme r&d kosten is Ati dit niet gelukt en hebben ze de prijs moeten verhogen naar $399. Nvidia zal zeker nog meer r&d kosten maken aangezien de nv30 een nieuw design is, wat niet goed is voor de prijs.

De driver ondersteuning van Ati is momenteel erg goed, eens in de drie weken ofzo wordt een neiuwe driver gerealesed, die een verbetering is ivm de voorgaande. Momenteel zijn ze bezig met de 6043 die de Radeon 9700 een behoorlijke performance boost gaat geven :+
Dat ATi z'n kaartje al klaar heeft is een goed teken, maar nu mogen ze zich ook gaan focussen op de drivers. Met de 'oude' Radeon linux drivers was bijvoorbeeld de preformance gelijk aan die van een VooDoo II, ATi schuift het maken van drivers ook op XFree86 af, de maker van een grafische X server in Linux.
Oftewel; Linux gebruikers krijgen de indruk dat ATi Linux niet echt serieus neemt... en dit kost wel een aantal klanten.

nVidia heeft daarintegen weer goede Linux dirvers, deze presteren goed in Linux en zijn meestal wel up to date.

Ik wacht af of bij de nieuwe technologie van ATi ook de drivers wat beter worden aangepakt, of dat het marktaandeel van linux kaartjes die ook in 3d erg goed presteren nog bij nVidia blijft.
Linux gebruikers krijgen de indruk dat ATi Linux niet echt serieus neemt... en dit kost wel een aantal klanten
Dit kost hun dus geen klanten. Leer even beseffen welk OS als enige meetelt voor games.

Het zou me verbazen als je het aantal exclusieve linux gamers op 10 vingers NIET kan tellen.
Gezien de grootte van de wereld is dit wel een erg foutgevoelige uitspraak maar Linux heeft geen plaats wat betreft gaming.
Er zijn inderdaad versies van Half-Life, Quake, UT enz... wat zelfs heel goed is om Linux wat aantrekkelijker te maken voor gamen.

Het marktaandeel is echter zeker en vast verwaarloosbaar.
Oftewel; Linux gebruikers krijgen de indruk dat ATi Linux niet echt serieus neemt... en dit kost wel een aantal klanten.
Jazeker, ongeveer 0,01%. Het zal ATi hun aars oxideren, maw: dat komt later wel, de doelgroep nu is Windows gebruikers en dan bestrijk je dus ongeveer bijna de hele aardkloot.

Als je zo "exostisch" wil zijn met je OS moet je ook de consequenties aanvaarden. Gratis OS? Prima! Effe wachten of heel lang wachten op goede drivers voor dat OS? Exact.
DAn wacht jij dan maar op de NV30 voor je linux bakkie.

Ik ga wel voor de r300 voor mijn win32 bakkie of win64 bakkie :9~

Lekker DX games spelen met wat OGL er tussen.

Veel games gebruiken DX en enkele OpenGL dus als gamer ben je afhankelijk van windows.

Wil je perse linux dan is je game keuze ook wat beperkter niet dat het voor sommigen wat uit maakt die hebben toevallig hun favo game voor linux maar veel games dus niet.

Windows OS is tot nu toe het meest algemeen geschikte Game Pc platform.
Op het moment dat je *nix (alleen) gebruikt voor games ben je m.i. toch fout bezig. Daar heb je veel betere (snellere?) oplossingen voor. Dat is net zoiets als een pro OpenGL kaart kopen en dan verwachten dat de OpenGL games ineens veel sneller draaien dan de andere kaarten.

Natuurlijk kan je games spelen op *nix, wat heet ik doe het zelfs nog op mijn SGI's. Maar ik zit er echt niet mee als een game eens niet werkt, daarvoor zijn er betere oplossingen. En GUI onder *nix?? sjure alsof ik dat voor de meest gangbare taken nodig heb! Dat doe ik op een wintel bak ook nog steeds in dos/ een dosprompt

*edit*

Ik doe het toch maar nog eens. Offtopic? Hmm en de reacties waarop ik reageer niet??? Pas op hoor het zou eens een mening van verschillende mensen kunnen zijn die een onderwerp wat Breeder bekijken!
De NV30 is een fantastische chip maar ik zou toch voor de R300 kiezen want DX 9 ondersteuning of niet ik maak toch alleen maar gebruik van opengl en de prijs van de R300 ligt toch een stuk lager mocht de NV30 ook binnenkort uitkomen.
Hoe kan je nou zeggen dat de R300 prijs een stuk lager ligt dan die van de NV30 ? Je weet nieteens wat de R300 straks kost laat staan dat je weet hoeveel de NV30 gaat kosten als hij in de winkel ligt. En leuk dat je alleen OpenGL gebruikt maar er zijn nog steeds veel games die op Direct3D werken.
Alle spellen die gemaakt zijn voor zowel D3D als Opengl, spellen zoals MOHAA of RTCW of Quake 3 of UT zien er met Opengl veel mooier uit en waarom zou ik dan zoveel geld investeren in een kaart die op de eerste plaats gewoon duur is en opties bevat die je toch niet gebruikt, en TERUGKIJKEND op vorige releases van Nvidia kaarten kun je concluderen dat die NV30 zeker duurder zal worden dan een ATI kaart.
vooral als die nv30 ook sneller zal zijn zal die van ATI goedkoperzijn.

En met 0,13 en dus hogere clock zit dat er met rauwe performance al in.
Met 0.13 zou nvidia juist goedkoper uit moeten zijn door meer chippies tegelijk te kunnen bakken. En ze kunnen ook sneller zijn als t een beetje mee zit.

Maar al met al denk ik dat de prijs niet veel zal verschillen.
Ze weten ondertussen wel wat mensen bereid zijn uit tegeven. De gf4 ti4600 zat ook niet veel boven de 500euro en dat verwacht ik dus ook niet van de nv30 of r300. En omdat ATI eventjes de top kaart heeft zal ie in t begin best duur zijn en dus vast de 500euro wel halen.

Ik wacht wel een jaartje tot de nv35 of r350.
Er moeten ook wel eerst spelletjes zijn die iets nuttigs doen met die kaarten want alles draait al hard zat op t moment met mn ti4600.
en TERUGKIJKEND op vorige releases van Nvidia kaarten kun je concluderen dat die NV30 zeker duurder zal worden dan een ATI kaart.
Dat valt wel mee, de 4600 en de 8500 hadden bijvoorbeeld allebei dezelfde uitgifteprijs, de enige kaart van nvidia die echt duurder was dan de competitie was de gf3 toen die net uit was
Ik wacht wel een jaartje tot de nv35 of r350.
Er moeten ook wel eerst spelletjes zijn die iets nuttigs doen met die kaarten want alles draait al hard zat op t moment met mn ti4600
Je kan wel wachten tot je een ons weegt omdat jouw argument dus elke keer opgaat. En omdat de software (games) altijd zullen achterlopen komt het erop neer dat je nooit een nieuwe videokaart zal kopen.

En dat je een jaar zal wachten lijkt me heel normaal voor iemand die een 500+ Euro videokaart heeft, tenzij je natuurlijk de geldpest hebt.
want alles draait al hard zat op t moment met mn ti4600.
Ja duh! Natuurlijk draait alles hard zat op die kaart!
Ding is net nieuw! M'n 300 Euro goedkopere Ti4200 draait ook alles en loopt op de Ti4600 specs maar da's ook een overbodige melding.
Je kan wel wachten tot je een ons weegt omdat jouw argument dus elke keer opgaat. En omdat de software (games) altijd zullen achterlopen komt het erop neer dat je nooit een nieuwe videokaart zal kopen.
Ik bedoel de echte grote veranderingen. Toen de eerste geforce kaarten kwamen had je daar weinig aan want er was nog geen spel wat TnL ondersteunde. Dat zelfde zal nu gelden voor de NV30 / R300. Alleen was een geforce kaart wel een stuk sneller dan een tnt2. Maar de kaarten van tegenwoordig zijn al veel te snel. Het enige wat nieuwe kaarten kunnen brengen is nieuwe features, en die moeten de spellen toch echt eerst ondersteunen.
Ik hoop dat DOOM3 hier al verandering in brengt.

En dan heb je nog het feit dat de 2e generatie vaak een hoop dingetjes verbeterd en problemen oplost (bijv. voltage problemen bij de gf1). gf2 was een hele verbetering tenopzichte van de gf1 en hetzelfde geld voor de gf3 vs gf4.
een beetje voorbarig misschien, maar zeer waarschijnlijk wel juist. Toen de Radeon de GF beconcurreerde (toen tegen de F1000), kwam nVidia met de GF3 die toen F1500 moest kosten.

Prijzen zijn wel bekend. De Radeon 9700 gaat 400-450 Euro kosten voor de goedkope merken (Pixelview, Saphire, Enmic) en de Hercules en Gigabyte versies 500-550 Euro (Ati zelf brengt geen kaart meer uit in Europa).

Vwb openGL en Dx gaat blade181 een beetje de fout in. Juist voor DX9 heb je voldoende aan een R300, en de NV30 zou er met OGL (2?) meer uit kunnen halen.
De DirectX 9-standaard ondersteunt niet méér dan wat de R300 biedt, waardoor de NV30 in DirectX-applicaties niet sneller zal zijn. Anders zou het echter kunnen liggen bij OpenGL-programma's, al betwijfelt de auteur of een maximum van 32/64 operaties snel een beperking zal gaan vormen.
Edit:
[offtopic]
Ga anders naar QuakeCon... kun je een Radeon 9700 in Limited Edition box kopen, met Remote Wonder, met Doom III voor $449. :9
Ja alleen jammer dat er de eerst komende tijd geen games voor opengl 2 uitkomen dus daar heb je helemaal niets aan.
Het idee is om een model met veel polygonen te ontbinden in een model met minder polygonen en een displacement map. Vervolgens wordt het vereenvoudigde model gerenderd, waarna de displacement map er bij betrokken wordt om weer tot een model met een hoge kwaliteit te komen. Deze manier van renderen kan veel efficiënter zijn dan het renderen van alle data.
Hmm, misschien dat Matrox toch niet zo ver naast de plank sloeg. Bij de review/opinistuck van John Carmack over the Parhelia zei hij dat displacement mapping zinloos en achterhaald was, maar als Microsoft dat nou in DX 9 gaat proppen, dan wordt de Parhelia misschien wel een stuk interessanter. Want in termen van puur bruut geweld zijn natuurlijk de R9700 en de NV30 niet te overtreffen voorlopig.
John C gebruikt toch altijd al liever OpenGL en geen DirectX.

Displacement mapping wijst hij juist af omdat dat problemen geeft met volumetric shading. Als je een low-poly model gebruikt zonder 'bumps' is dit model veel kleiner. Als je dat model gebruikt om de schaduwen langs te laten vallen dan kloppen de schaduwen niet meer of je moet moeilijk omrekenwerk doen. Vlgs mij word het fysische model voor collisions er ook niet makkelijker op (wanneer raakt die bump de muur, of wanneer is een schot raak?).

Met N-patches heb je dat trouwens ook, maar minder.
Ja misschien heeft JC er problemen mee met minder reeel schaduw maar dat zal de gameplay niet drukken.

D'r zullen misschien wel games engines ontwikkeld worden die zich daar niet zo druk overmaken als JC.
En dan help deze feature om mooiere complexe scenes te draaien zonder de hardware onnodigt te oversturen door het rondpompen van data te reduceren.

En vooral voor een FPS alsof iedereen die schaduw zit te checkken.

Shaduw is niet zalig makend maar JC houdt van die shimmerige games en daar speeld shaduw een wat grote zichtbare rol in dan scenes met veel overheersende ambient light.
Ehmm... Johm Carmack heeft toen een paar dagen later excuses aangeboden aan Matrox, daar John iets te voorbarig was en een paar dingen door elkaar haalde. Dus dit is overbodig nieuws. En die nieuwe kaarten zijn leuk, maar de prijs zeker niet. Liver koop ik een tweede generatie kaart, zoals nu een Radeon 8500.
Koste me 150 euro, terwijl die kaart ook in 400 euro-range zat toen die uitkwam, net zoals de huidige top-kaarten. Volgend jaar ofzo koop ik dan wel weer een NV30 of R300, wanneer die gunstig geprijsd is.

2 voordelen:

1) de prijs (bespaar algauw 200 a 300 euro)
2) stabiliteit drivers
Tja, allemaal mooi gezegd jongens, maar ik ben hier kort over. Nvidia's nv30 zal zowiezo sneller zijn en weer iets meer features hebben qua 3D. Waarschijnlijk ook iets duurder, ook al kost een 13 micron minder om te produceren, ik denk niet dat ze daardoor de prijs geen laten zakken...

Maar wat wel zeker is, is dat ik voor nvidia kies, nu al , als ik nu terugdenk aan men laaste drie jaar werken met de pc en spelen van games. Nog nooit liep mijn pc zo stabiel als met drivers van nvidia. Snel, altijd geweest, en als ik eens een foutje had in een game, 1 week wachten, nieuwe bèta drivers erop, en klaar was kees. Dit mag je toch niet ontkennen, dat op dit vlak nvidia een stapje voor heeft. Ok, ati's catalyst drivers mogen voor verbetering zorgen, maar hoeveel versies van die catalyst drivers zijn er nu al geweest ? Niet zo veel beta's als nvidia buitenrolt. Ze zijn wel op de betere weg, moet ik toegeven, maar ik ga voor de stabiliteit van nvidia.

Ik vind nu persoonlijk mensen die claimen voor intel, lauter om de stabiliteit, en die dan een radeon er gaan insteken, die vind ik toch wel echt hypokriet. Die getuigen van 'makkelijk beinvloedbaar'

by the way, zo kort was deze post nu ook niet , sorry :)
Ehhhh sorry maar ondanks wat gemekker met de drivers van Ati (ja exotische hardware, die ik met powerstrip even anders aan moet sturen) kan ik geen verschil ontdeken qua stabiliteit tussen nvidia en ati. Eerder is het zo dat nvidia in hogere driver versies 'instellingen wijzigd' zodat mijn SGI 1600SW alles is behalve breedbeeld :r

a: ati heeft de fix voor het flikkeren van mijn scherm nog niet door gevoerd.
b: nvidia heeft sinds driver 12:41 alles behalve normale ondersteuning van mijn breedbeeld monitor (Ja die SGI 1600x1024 16:10) en persoonlijk vind ik dat erritanter omdat het ervoor wel normaal werkte en ik het nu niet meer aan de praat krijg.
Als je van plan bent om een nieuwe kaart te kopen en toendertijd geen GF4 hebt gehaald zou ik op dit moment de R9700 nemen.
Als je nu gaat wachten op de NV30 dan heb je kans dat je weer net zo goed op de opvolger van de R9700 wachten (of de pro versie) en als je dat doet kun je weer net zo goed op de vervolg ontwikkeling voor de NV30 wachten.

Koop nu, ga je kaart afschrijven en koop over een jaar of 2 een andere.
Anders hou je de fabrikanten niet alive.

Moet er niet aan denken dat Nvidia failliet gaat of ATI
Anders hou je de fabrikanten niet alive.

Moet er niet aan denken dat Nvidia failliet gaat of ATI
Wij (tweakers) zijn zo'n miniem percentage dat geen fabrikant er wakker van ligt wat wij doen. De grote pc-bouwers: HP Dell Packard bell, dat soort meuk daar maken ze zich druk om. Als wij onze verkoop (nog) een keer uitstellen gaan ze dat niet merken in hun omzet denk ik.
Oh jawel, nVidia zal wakker liggen van wat de tweakers doen.

Ik zie *nu nog steeds* Dell en HP computers met een Geforce 2 MX-400, en zelfs soms een MX-200! Soms een model met een GF4 MX-420/440/460, maar ik heb nog geen enkele OEM computer gezien die standaard werd uitgerust met GF2-Ti, GF3-Ti of GF4-Ti kaarten. Ze kunnen vaak als optie of vervanging worden gekregen, maar dat is dan vreselijk duur.

Het zijn just de Tweakers die de allersnelste en duurste kaarten kopen. De "normale gebruiker" koopt een kant-en-klare PC bij de Dynabyte, en als er teveel spellen niet meer snel genoeg op lopen, dan koopt hij een nieuwe. "Gewone" mensen waarderen niet vaak op, ze vervangen alles in een keer.
miljoenen geforce2 mx kaartjes vs paar 100 duizend highend kaartjes, hmmm ik denk dat nvidia en ati voor het eerste kiezen.

met tweakers wordt er idd geen of nauwelijks rekening gehouden, de snelle kaarten die nu uitkomen worden binnekort in oem pcs gebruikt, tweakers testen de kaarten als het ware uit :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True