Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: The Inquirer

The Inquirer schrijft over de videochip die nVidia in de lente van 2002 zal uitbrengen, nu nog bekend onder zijn codenaam NV25. Zoals eerder al werd gespeculeerd zal dit in feite niet veel meer dan een hoger geklokte GeForce3 zijn met een extra vertex shader aan boord, verdacht veel lijkende op de Xbox GPU. Het is nog onzeker of deze 'GeForce4' volledige DirectX 9 support krijgt, maar we kunnen er wel vanuit gaan dat het bedrijf haar uiterste best zal doen om features als NURBS, die in de GeForce3 nog niet helemaal werken, volledig te implementeren. Volgens de tekst begint nVidia haar snelheid te verliezen en heeft door het bredere arsenaal aan chips min of meer de kracht verloren om iedere zes maanden met iets nieuws te komen. Het bedrijf zou stilletjes aan reorganiseren zijn naar een productcyclus van een jaar. Getuige de weinig vernieuwende GeForce3 Ultra:

NV25 will be technically the same card as NV20 aka Geforce 3 with an additional Vertex shader. Higher memory and chip clock may be expected but the only thing that will make a noticeable difference is the additional vertex shader. This was also easy to predict since the Xbox chip has two Vertex shaders and that chip can easily be reworked to be used in a PC. This seems to lead to the conclusion that Microsoft helped Nvidia to make the additional PC chip for themselves at $200 million expense to the Great Satan of Software.

[...] So Nvidia seams to slow a bit down as it cannot be on a six month product cycle any more because of the large market they cover now 3d cards for games, for professionals, chipsets, consoles etc. They're silently moving to a one year cycle we reckon.
Moderatie-faq Wijzig weergave

Reacties (57)

haal nooit refresh rate en fps door elkaar

refresh rate is voor een analoge monitor van belang dat het hoog is omdat als je elektronen op een scherm afschiet dan kan het nooit zijn dat de elektronen precies op dezelfde plek vallen dus het beeld verschuifd een beetje (heel klein beetje) daarom lijkt het alsof het beeld flikkert hoe hoger de refreshrate hoe vaker het beeld opgebouwd word en hoe minder je die bewegingen ziet..... daarbij moet er ook rekening gehouden worden met het fosfor dat uit gaat (dus als je een elektron op fosfor schiet blijft het natuurlijk niet aan) hoe vaker je op fosfor schiet des de minder zie je dat het fosfor uitgaat omdat hij weer oplicht voordat hij uit kan gaan (geflikker dus).

over de fps in een bioscoop.... heb je ooit gemerkt dat je bij actie films niet meer kon volgen wat er gebeurde omdat er te snel bewogen word???? nee dus en dan hebben we het wel ff over snell actie films... het kan voorkomen dat het wazig wordt maar dat is net zoals bij een foto toestel dat als je te snel beweegt dat dat er meer licht op verschillende plaatsen komen (sluitertijd is ook van toepassing op camera maar minder zichtbaar omdat het beeld beweegt en bij een foto niet)

nu worden computer graphics berekent dus heb je dat wazige niet 24 fps is normaal genoeg maar 40 is wel wat lekkerder ja 100 is overkill

[sidenote]
overigens is er een hele simpele manier om de schaduw en lighting effecten op te lossen voor tile based renderen je zorgt ervoor dat de tile even groot is als de resolutie (is nu niet mogelijk vanwege mem bandwith en gpu rekenkracht limitatie) dit zou in de toekomst wel immideate mode rendering obsolete maken
[/sidenote]
nVidia gaat meer moeite krijgen met de concurrentie, aangezien de r200 en r300 wel directx 9 gaan ondersteunen, kben ook benieuwd wat de kyro 3 gaat doen. Ook het bericht dat nVidia geschorst is bij een vergadering over directx 9 is verontrustend voor nVidia.
Ze kunnen nu geen invloed meer uitoefenen op het uiteindelijke product zoals ze wel bij directx 8 deden met de vertex shaders :'(
Blijkbaar is de band tussen M$ en nVidia wat verslechterd, ondanks de XBox met z'n gpu :?
Misschien ligt daar juist de oorzaak? Of in het gebeuren met directx 8, voor de rest zou ik niet weten waarom, het blijft giswerk.
Dat is wel heel erg met een gekleurde bril kijken.
nVidia is op dit moment de enige fabrikant die een kaart heeft die;
a) de snelste is
b) de meeste features heeft
c) de meeste bruikbare (doordat snelheid geen probleem is) features
d) de enige die directX8 compliant is
e) programmable T&L

Vergeet niet dat de GF3 uitgegaan is naar diverse software developers voor het bouwen van de nieuwste 3D engine's.
Dus om nVidia al op de schroot hoop te plaatsen nog voordat ATI of PowerVR ook nog maar iets werkends hebben laten zien vind ik eigenlijk niet terecht.
Daarbij is altijd al gezegt door nVidia dat ze 1x per jaar een produkt update doen (ultra/pro en MX) en 1x per jaar een nieuwe chip. Als zij inderdaad in het voorjaar van 2002 een NV25/30 (hoe het ook mag heten maar geen update van de GF3 in elk geval) kunnen produceren en verkopen dan is dat heel mooi en niks om je zorgen over te maken.
En wat DirectX 9 betreft, dat is allemaal politiek en heeft niks met techniek te maken. MS zal wel gek zijn om nVidia niet te betrekken in het DirectX 9 gebeuren. MS heeft nVidia net zo hard nodig als ATI en straks mischien ook PowerVR.
Als directX 9 minder steun gaat krijgen van Hardware fabrikanten is dat alleen maar weer mooi voor de ontwikkeling van openGL. Want die wordt ook weer tegengewerkt door MS. Wees blij dat nVidia niet het kontjongetje van MS speelt.
Je vergeet alleen, dat als MS enkel alleen de OpenGL extensies ondersteund welke nodig zijn voor professional CAD ed, en voor games zich volledig concentreert op DirectX, dan zullen game developers DirectX gebruiken, en als gevolg zullen hardware fabrikanten DirectX moeten ondersteunen. Als dan vervolgens nVidia alleen goede OpenGL heeft, maar niet een fatsoenlijke DirectX ondersteuning, dan heeft nVidia een probleem. En dan is er heel snel weer een andere videokaarten bakker die het snelste en de grootste is. MS heeft niet specifiek nVidia nodig, maar het is niet zo dat nVidia slechts een willekeurige OS fabrikant nodig heeft. Er is er immers maar slechts 1 die een fatsoenlijk platform levert voor games.
Er is er immers maar slechts 1 die een fatsoenlijk platform levert voor games.
Wat een onzin, Linux is een beter platform voor games dan windows (sneller/betrouwbaarder), het enige probleem is het feit dat veel spelproducenten windows-minded zijn en op die manier de hegemonie van windows blijven versterken....dat doet echter niets af aan het feit dat er meer "fatsoenlijke" (en zelfs dus betere) Os's zijn die een prima pltform voor games zijn....
Linux is mischien stabieler en sneller.. maar je ziet al aan de steeds sneller opkomende consoles: mensen die spelletjes spelen willen geen "ingewikkeld gezeur" aan hun kop - de grote markt in ieder geval niet..

En wat stabiliteit betreft... spellen zijn over het algemeen 1 grote hack die aan alle kanten rammelt
Dat is een hele andere discussie, het feit blijft dat windows dus niet het enige fatsoenlijke platform is voor games.

Linux ontwikkeld zich snel en er zullen in de zeer nabije toekomst distro's zijn die voor de windows gebruiker net zo gebruiksvriendelijk zijn.
Ik draai nu praktische 100% van mn tijd in linux en hoewel het nog niet op het niveau van windows is qua gebruiksgemak (dit voornamelijk door het feit dat er weinig support wordt geboden door hw fabrikanten) is het grooste probleem niet zozeer het gebruiksgemak als wel de kennis van windows die bij de meeste mensen simpel gebruik van linux tegenhoud...

Iemand die dus niet gehinderd wordt door kennis over windows zal linux dus al minder als "gebruiksonvriendelijk" bestempelen...
<quote> nVidia haar snelheid te verliezen en heeft door het bredere arsenaal aan chips min of meer de kracht verloren om iedere zes maanden met iets nieuws te komen </quote>

ik vind dit een goede zaak, dan kunnen games fabrikanten eindelijk relaxed games maken, dan hoeven ze niet elke dag weer nieuwe effecten toe te voegen etc, misschien dat er sneller games daardoor uitgebracht woorden :7
Het enige waar dit toe leid is dat de innovatie mbt games een stuk vertraagd zal worden (of vind niemand het hier erg dat in zo'n situatie doom 3 en unreal 2 nog verder uitgesteld zouden worden, of iig een stuk minder bruut zouden worden?)
Nu moet ook NVidia over op Tile Based rendering. De oude manier is echt helemaal uitgeput
Mhwa, mensen als Tim Sweeney en een hele hoop experts met tientallen jaren ervaring bij SGI (die bakken maken voor o.a. film-SFX) zijn nog altijd fel tegen tile based rendering. Het is volgens hen een 'vieze' truc om snelheid te winnen, maar geen echte oplossing voor de lange termijn. Ik weet dus nog zo net niet of dat echt de toekomst heeft, maar ik moet toegeven dat het er op dit moment wel veelbelovend uit ziet.
eh vieze truc?? Vind dat echt onzin. Als je daarmee de snelheid kunt verdrievoudigen op dezelfde kloksnelheid dan is dat toch schitterend?? Vind het echt onzin. Komt er straks een 3 keer zo snelle Pentium 4 of Thunderbird die door een speciale truc zo snel kan en niet meer kost dan ga je toch ok nie zeggen: "jah die ga ik niet kopen zeg, die gebruikt vieze trucs".
eh vieze truc?? Vind dat echt onzin. Als je daarmee de snelheid kunt verdrievoudigen op dezelfde kloksnelheid dan is dat toch schitterend?? Vind het echt onzin.
Een truc is het zeker. Een van de grote nadelen van tile-based renderen is dat er problemen ontstaan bij Z-buffers en Stencil buffers die gelden voor de gehele scene.

Als een voorwerp schaduw op de grond werpt moet een tile-based renderer erg moeilijk gaan doen omdat het alleen de diepte informatie heeft van wat op dat moment in de 'tile' zit. Een conventionele 3D chip heeft de Z-buffer voor de gehele scene beschikbaar. Een 'tiler' moet dan alsnog naar het grote geheugen om alsnog Z-buffer informatie op te halen, wat erg traag is.

Bij The Firing Squad stond een review van de Kyro waarbij MBTR grote problemen kende waar het de schaduw op het wegdek betrof. Dit zorgt voor een beperking voor programmeurs, voor wat betreft ze allemaal uit kunnen halen met graphics.
Trucs gebruiken processoren al veel langer, en in principe is een langere Pipeline ook een truc om een processor sneller te laten lopen. Er zijn dan ook stevig wat nadelen aan verbonden. Branche prediction moet dit weer opvangen, maar dit zijn lapmiddelen. Uiteindelijk zou een ander systeem dan beter werken, wat niet meer last heeft van 'gok'werk.

* 786562 TheGhostInc
De z-bufffer accesses waar de Kyro problemen mee heeft, zijn veel meer een vieze pragrammeertruuk dan tilerenderen is op de Kyro (hoezo vies, het is 100% efficient, wat is er nou nog mooier). Deze Z-buffer rotzooi is in DX8 al verboden, en wordt sowieso al nouwelijks meer gebruikt. Verder zijn de problemen bij MBTR al opgelost m.b.v. een patch.

Ik vind tilerenderen gewoon veel een veel mooier dan simpelweg met 500 mHz geheugen alles uitrekenen wat je niet ziet. Traditionele renderers zijn verouderd, en ook met HyperZ kun je het niet eeuwig volhouden.
Traditionele renderers zijn verouderd
is tile-based rendering toevallig niet even oud (of misschien zelfs ouder) dan imediate mode rendering ?? ik denk zo aan Permedia :D
Het is gewoon een manier om meer geheugen bandbreete te besparen. En na verloop van tijd zal die besparing inderdaad ook niet genoeg meer zijn. Maar daar ben ik niet bang voor. Er komt vanzelf weer wat nieuws :*)
Als er niet snel een goede oplossing komt is elke vieze truc welkom
Het grote aantal chips?
GF, GF2, GF2 MX, MX400, GF3, GF3 mx binnenkort, Quadro, Quadro2, dat xbox ding en dan ook nog alle pro en ultras...
NV10 (GF1DDR e.a.) is een gesloten boek en aan NV11 (mx e.a.) en NV15 (gts e.a.) wordt ook niet meer ontwikkeld, hoor.

Wat je nog vergeten was is de GF2go :)
En vergeet de nForce niet + varianten, en dan ook nog die southbridge/audio chip op de Xbox etc etc
Hm allemaal heel erg mooi maar als die stomme nVidia aan de top staat en gewoon de ontwikkeling van grafische kaarten vertraagd vind ik dat klote.
Eerst lees je overal dat je nog geen gf3 moet kopen omdat tegen de tijd dat er spellen zijn die er gebruik van maken, er al weer betere kaarten verkrijgbaar zijn en nu vertragen ze gewoon de snelheid waarmee het product wordt geupgrade.
En laten we het nog maar niet hebben over de schofterig hoge prijzen die ze vragen voor hun produkt. Het is nVidia erg naar het hoofd gestegen, ze bieden steeds een kleine verbetering en houden ons zo aan het lijntje. Ik kende ooit nog zo'n bedrijf eeeh 3dfx was het... en we weten wat daarmee is gebeurd.
Het is nVidia erg naar het hoofd gestegen, ze bieden steeds een kleine verbetering en houden ons zo aan het lijntje. Ik kende ooit nog zo'n bedrijf eeeh 3dfx was het... en we weten wat daarmee is gebeurd.

dat is nou precies waar ik ook aan dacht, maar ik denk dat ze het voorlopig nog wel uit kunnen houden.

ATi en PoverVR zijn nu nog vrij klein, al heeft ATi met de Radeon al laten zien wat ze kunnen, en ik weet zeker dat de Radeon II (R200) ook zeker niet slecht is. en ATi heeft nog steeds een lekkere 2d en das ook erg belangrijk..

PowerVR ken ik niet echt, maar ik denk dat die met de KYRO III ook iets moois kunnen doen
ATi en PoverVR zijn nu nog vrij klein, al heeft ATi met de Radeon al laten zien wat ze kunnen, en ik weet zeker dat de Radeon II (R200) ook zeker niet slecht is.
ATi klein???? ATi bestond al vele jaren voor Nvidia ... en ATi is groter dan Nvidia... ze zijn no.1 OEM leverancier van grafische kaarten.

Verder ben ik het helemaal met je eens, behalve dat 3dfx niet over de kop is gegaan vanwege te weinig innovatie (VSA-100 was behoorlijk innovatief), maar vanwege het feit dat ze besloten eigen kaarten te ontwikkelen en niet de chips aan andere kaartenbakkers te verkopen...
En laten we het nog maar niet hebben over de schofterig hoge prijzen die ze vragen voor hun produkt.
ZUCHT... wanneer gaan mensen nu eens onthouden dat nVidia geen schandalig hoge prijzen vraagt voor hun produkten als het hier al 684 keer is uitgelegd... De GeForce 3 kaarten hebben 64mb supersnel DDR-geheugen, DAT maakt de prijs zo hoog.

Even uit de Pricewatch wat Asus produktjes vergeleken:
TNT2 32Mb fl.261,-
GF2 32Mb fl.429,-
GF2 64Mb fl.709,-
GF3 64Mb fl.1128,-

Wat leren deze cijfers ons? 32Mb erbij blijkt 280 gulden te kosten. Een bordje met een chip die niets kost (de TNT2 is bijna gratis tegenwoordig en het TNT2 geheugen evenmin) kost iets van 200 gulden om het gebouwd en in de winkel te krijgen.

1128 - (2*280) - 250 = 318

Ergo de Geforce 3 chip kost 318 gulden volgens dit (licht kromme, toegegeven) rekenvoorbeeld. Niks buitenissigs aan denk ik zo.....

edit:

Als je een goedkope GF3 wil bouw je toch zelf voor een gulden of 400 op een brak bordje een GF3 met 16Mb SD-RAM en geen fans? Kwaliteit en power hebben hun prijs!
Ik kan me helemaal aansluiten bij bovenstaande posting, ook valt het me op dat veel 3dfx zealots schijnbaar niet de begintijd van 3d gaming hebben meegemaakt aangezien 3dfx in al die tijd echt niet "beter" was dan nvidia (in technisch en ethisch opzicht)

Ik kan ook eindeloos klagen over het feit dat een v2 SLI-setup zo'n 1300-1400 piek kostte destijds (incl inflatie dus vergelijkbaar met zon 1600+ piek nu) en over het feit dat de v5-6000 tussen de 1700-2000 gulden zou gaan kosten, ook had 3dfx pas bij de v5 een acceptable 3d kwaliteit, terwijl ati en nvidia dat al veel langer hadden...

Nvidia geeft je de keus tussen verschillende kaarten, je hoeft geen gf3 van 1000 piek te kopen, je kunt ook een mx versie kopen (goedkoop en goede prestaties), vroeger had je geen keus, je had vaak 1 model (of 2) en die waren zwaar overprijsd...die situatie heeft nvidia destijds opengebroken zodat we nu betaalbare kaarten hebben met goede prestaties (naast de duurdere versies)

Maar ja, nablaten is nu eenmaal populair op tweakers en wordt helaas niet echt beinvloed door ratio... :(
ze vertragen omdat ze gewoon hun cyclus van 6 maanden niet kunnen waarmaken. er kleven bijna alleen voordelen aan mbt thuisgebruikers.
reactie op slashhead
Dat is wel heel erg met een gekleurde bril kijken.
nVidia is op dit moment de enige fabrikant die een kaart heeft die;
a) de snelste is

ze is wel de snelste maar is dit ook wel nodig
of ik nu aan 100 fps of aan 40 fps speel dat zie je toch niet

b) de meeste features heeft

die dan ook niet gebruikt worden

c) de meeste bruikbare (doordat snelheid geen probleem is) features

zie hierboven

d) de enige die directX8 compliant is
als ik mij goed herinner zijn de kaarten van ati ook directx 8 compliant

e) programmable T&L
dit is misschien het geval omdat deze kaart een generatie verder is dan de concurenten

...voordat ATI of PowerVR ook nog maar iets werkends hebben laten zien vind ik eigenlijk niet terecht.

Volgens mij hebben deze producenten al bewezen iets werkend te leveren , misschien niet in jouw ogen omdat ze niet de snelste zijn

Wees blij dat nVidia niet het kontjongetje van MS speelt.
Ik denk niet dat andere producenten dat wel doen :-)
Ambor, ik wil je anti-nv gevoelens geen pijn doen ofzo (ik heb ze ook nl.), maar je moet toch echt toegeven dat op dit moment de GF3 de beste kaart is. De R200/300 duurt nog even, de kyro III is nog verder weg, en het is gewoon zo dat NV de enige is die op dit moment een DX8 kaart heeft.

Jammer, maar helaas.
Ik ben niet anti nvidia
ik reageerde gewoon omdat nvidia niet de enige is die een goede grafische kaart heeft uitgebracht
er waren producenten voor nvidia die dat gedaan hebben en er zullen er na nvidia nog altijd uitkomen :-)
als ik mij goed herinner zijn de kaarten van ati ook directx 8 compliant
Waar kan ik een Radeon met vertex en pixel shaders bestellen?
-Het menselijk brein kan maar een 20-tal beelden per seconde onderscheiden/verwerken. vandaar dat we bij een bioscoopfilm aan 24 beelden / sec een vloeiend bewegend beeld hebben-

Precies het enige dat verschil kan maken is nog de refresh rate. Het verschil tussen 50 Hz en 100 Hz kunnen we wel zien. 24 plaatjes per seconde is meer dan genoeg. Het maakt echter wel uit waarop je die 40 fps of 80 fps op baseerd. Hoe meer objecten er in beeld komen hoe meer rekenkracht, hoe trager het beestje wordt. Ik kan me dus voorstellen dat je bij 80 fps minder kans loopt dat je bij een druk gerenderde scene tegen de limiet van je kaartje aan loopt en dus tijdelijk onder de 24 fps komt dan bij 40.

Damn men zou eigenlijk een kaart moeten maken die garandeert dat je altijd 24 fps hebt.


Oh ja en wat betreft de hoge prijs van die kaarten. Ik vraag me af waarom geheugen nu ineens de hoge prijs zou rechtvaardigen. Normaal werkgeheugen is nu ook goedkoper. Volgens mij neemt dat snelle geheugen net zoveel oppervlakte aan silicium in in de waverfab wat volgens mij voor een groot deel bepaalt hoe hoog de productiekosten zijn (hoe meer op een plakje hoe beter) en natuurlijk daarna ook het aantal behandelingen dat de schijf moet hebben. (ja ja ik werkte ooit bij philips:-)

Nee als je het mij vraagt worden die prijzen extra hoog gehouden. Wacht maar tot iedereen de buik ervan vol heeft. Dan komt vanzelf het marktmechanisme in werking :*)
bij een Film is 24 Fps genoeg ja, voor een film ja
bij een spel is dat helemaal anders.
een spel is realtime, ge speelt da dus zelf. Bij een spel zoals Counter-strike, kun je zeer snelle bewegingen doen sneller dan een camera bij een film.
dus de reactie snelheid is belangrijk. dus als je snel met je muis beweegt en dan gaat vergelijken met een machine die max 40 Fps kan of eentje die der 80 (of meer) kan, dan merk je het verschil wel. als je zelf speelt , dan voel je gewoon het verschil en zeker als de Fps onder de 30 gaat. (bij snelle bewegingen is dat dan precies of het schokt) dus liever een videokaart die der minimum 60 Fps levert en niet 24 zoals bij een film

refresh rate is natuurlijk weer what anders maar vanaf 85 Hz zien we ook het verschil nie meer. ( bij 60 hz is het precies nog wel of het scherm flikkert en dus vermoeiend voor de ogen.Bij 72hz is het al een stuk minder,maar je ogen worden na een bepaalde tijd vermoeid).
Als je een videokaart zou hebben die nooit onder de 24 frames zou komen zou je waarschijnlijk nergens last van hebben, ook niet bij snelle bewegingen
Nee als je het mij vraagt worden die prijzen extra hoog gehouden
Ten eerste: door wie (nvidia, alle fabrikanten, de kaartbakkers?)
Ten tweede: waarom? er is vette concurrentie op deze markt, en de prijs is zeer van belang in de strijd om een grotere afzet (nee, nvidia heeft geen monopolie, dat is onmogelijk in deze markt)

Je bent vrij om een ander product te kopen aangezien videokaarten allemaal compatible zijn met opengl/dx en met de huidige pc-hardware , "het marktmechanisme" is dus al in werking...

Het enige probleem wat ik nu nog zie (en dat betreft alle pc-hardware) zijn de nederlandse importeurs, die vaak flinke toeslagen over hardware vragen (soms meer dan 100%)

De xbox kost bijvoorbeeld omgerekend (incl nl btw) 890 piek, maar ik denk dat ie in nederland weer flink veel duurder zal zijn (mits MS nederland zelf de distributie op zich neemt)

Helemaal veel als je bedenkt dat $299 ongeveer het equivalent van 550 nederlandse gulden is qua koopkracht (dwz: de $ is zwaar overgewardeerd)
mijn persoonlijke visie is eigenlijk dat NVidia op dit moment bezig is (zoals in de roadmap te lezen was/is) de huidige videokaarten stabieler danwel sneller te maken, veel problemen met de GF3 om stabiliteitsredenen zijn er nog steeds, helemaal met deze mussen-vallen-van-het-dak problemen.

ook 2d zal nvidia op dit moment iets meer gaan boeien (kyro concurrentie etc.) en echt veel meer valt er niet meer te doen aan de huidige generatie videokaarten, immers, bandbreedte naar de agp poort is ook een keer op, jammer genoeg.

ook de XBox heeft veel vertragingen gekost bij NVidia, een heel mooi project voor hen, maar te kostbaar voor de die-hard pc gebruikers.

die schorsing bij de dx9 conferentie is voor NVidia helemaal geen doorn in het oog, ze hebben immers de marktleiding, zodra er voor de programmeurs richting nvidia geen andere codes meer aangeleverd worden door het ontbreken van dx9 bij nvidia, gaan programmeurs door op dx8 simpelweg omdat de meeste gebruikers op nvidia videokaarten draaien.

ook bieden de hogere kloksnelheden e.d. geen problemen meer voor de programmeurs, de instructies veranderen immers dan niet meer, als nvidia tile-based rendering toe zou gaan passen moeten de programmeurs op dat gebied ook weer dingen gaan aanpassen.

de NV25 is voor mij een correcte stap richting versnelde en nog natuurlijkere gfx. alleen de nv18 is voor meer mensen iets interresanter, omdat deze simpelweg goedkoper is. ook voor mij
ook 2d zal nvidia op dit moment iets meer gaan boeien
2d-kwaliteit heeft niets met de nvidia chips te maken, maar alles met de kwaliteit van de componenten die kaartbakkers gebruiken...mijn gf1 heeft bijvoorbeeld een net zo retestrak en helder beeld als de g400...
Volgens de tekst begint nVidia haar snelheid te verliezen en heeft door het bredere arsenaal aan chips min of meer de kracht verloren om iedere zes maanden met iets nieuws te komen. Het bedrijf zou stilletjes aan reorganiseren zijn naar een productcyclus van een jaar.
hier zit wel een voordeel aan natuurlijk. eerst maakten we ons nogal druk omdat we zo lang mogelijk wachten om een GF2 te kopen zodat de prijs te doen was en voor veel GF2 aanschaffers was het een keus tussen gf2 en gf3.

de prijs zit ons meestal dwars, maar doordat de cyclus uitgerekt wordt geeft dat dus de kans om de huidige GF, de GF3 dus, nog verder in prijs te zakken zonder dat je straks als je een GF3 wilt, er alweer een GF4 is waardoor je toch weer twijfelt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True