nVidia produceert een 30 Watt chippie en zegt:"kijk maar wat je ermee doet", en dan blijkt opeens deze chip teveel van het AGP slot te vragen.
Helaas is het precies andersom. nVidia produceert een chip die wel veel stroom verbruikt maar binnen de door Intel gestelde AGP specificaties gebruikt. Helaas zijn er moederborden die dus niet helemaal voldoen aan die specificaties en niet genoeg stroom kunnen leveren.
Specificaties zijn er om er voor te zorgen dat er juist nooit dat soort problemen ontstaan. Helaas houdt niet iedere fabrikant zich daaraan.
Zowiezo dat zulke wattage-vreters zwaar klote zijn, want meer warmte in de kast betekend slechter overklokken .
Hmm, mijn Geforce DDR is anders gemakkelijk van de default 120/300 (core/mem MHz) over te klokken naar 145/330 zonder extra koeling. Dus zo slecht hoeven wattage vreters niet over te klokken zijn.

Maar de Geforce2 Ultra is zeg maar een derde revisie Geforce (geforce1, geforce2 en dan ulta), en dan nog komt er zo'n vreemde bug in voor. Noem het wat je het wilt noemen, maar een video-barrel voor de prijs van een Rolls-Royce vind ik niet best.
Het is geen derde revisie van de Geforce2 Ultra. Dat zou insinueren dat de chip zelf aangepast is, maar dat is niet het geval. Het is gewoon een chip die op hogere snelheden kan draaien. Echter blijkt dat sommige van de chips op die snelheid dus een weergave probleem hebben.
Ik ben het eens dat je voor die prijs zou verwachten dat er geen problemen zijn. Maar aan de andere kant, voor TFT schermen betaal ik me ook blauw en daar is toegestaan dat er maximaal 6 pixels niet werken. Dat vind ik ook niet normaal.
Je geeft dus zelf aan dat er inderdaad problemen zijn. Ik heb echt geen zin om uit te vogelen welke van de 500 drivers goed werken om mijn probleem op te lossen, ik prik een kaart erin en hij moet werken (desnoods na een tweede poging). nVidia moet net als MS eens per zoveel maanden een goeie driverset loslaten, dan maakt het veel mer indruk dan die driver-parade.
Tuurlijk zijn er problemen. Ik moet nog een videokaart meemaken waarvan de drivers bij de release geen enkel probleem hebben. nVidia is wat betreft daar niet slechter/beter in dat ATi en Matrox.
Bij mijn G400 werd ik zelf gek van het feit dat het zo lang duurde voor er een nieuwe driver kwam, die dan meer problemen introduceerde dan hij oploste.
Met die nVidia beta drivers die uitlekken heb je veel sneller bug fixes dan dat er eens in de twee/drie maanden een echte driver gereleased wordt.
Maar dit is echt iets wat van persoon tot persoon verschilt. Jij hebt liever eens in de zoveel tijd een driver die veel oplost en ik graag veel drivers die telkens een kleiner beetje oplossen.
Als ik deze prijzen van de afgelopen 3 jaar in aanmerking neem, dan zie ik bij lange na geen daling van de prijs.
Ik zie dat de prijzen gemiddeld redelijk hetzelfde blijven. Alleen de introductieprijzen zijn echter omhoog gegaan voor zeer extreme uitvoeringen. De Geforce2 GTS valt ondertussen voor f 550,- te krijgen en dat is een heel wat schappelijkere prijs dan ik indertijd voor mijn Voodoo2 8 MB betaalde toen die 1 a 2 maanden uit was.
Een chip maken kost niet zoveel, maar ze maken volgens mij bakken met winst.
De chip zelf is niet de grootste kostenpost meer. Dat is namelijk het zeer exotische DDR geheugen wat op enorm hoge snelheden loopt. Dat is moeilijk te verkrijgen dus is de prijs ontzettend hoog. Van een Geforce2 GTS was de helft van de prijs minstens die van het geheugen. Van de Geforce2 Ultra zal het geheugen zelfs nog veel meer zijn dan de chip zelf.
Lekkere marktleider dus, Koopt concurrentie weg, brengt in feite dure onaffe kaarten op de markt, terwijl een concurrent als ATi in 1 keer wel een mooie allrounder introduceert.
nVidia heeft niets de concurrentie weggekocht, dat is flauwekul. Vanwege het slechte management is 3dfx over de kop gegaan. En natuurlijk wil nVidia technologie van 3dfx overkopen aangezien die toch wel wat interessants in huis hadden.
Vertel mij eens waarom dat de ATi Radeon zogenaamd een meer 'affe' kaart is dan die van nVidia. Ik zie namelijk dat beide helaas niet alle nieuwe features implementeren.
De Radeon heeft een T&L pipeline met een aantal interessante bewerkingen voor skeletal animation en dingen zoals 3D textures. Echter de Geforce 2 GTS heeft pixel shaders die de Radeon niet bezit. In mijn ogen vind ik de pixel shaders een veel interessante uitbreiding, maar daar denkt iedereen anders over.
Echter is het wel zo dat er nu spellen zijn en uitkomen die die pixel shaders gebruiken, en van de extra features van de Radeon zie ik helaas nog niets geimplementeerd in spellen.
Technologische marktleider kan je ze ook niet noemen, want HEBM, FSAA en Dx8 kan je ver zoeker, net als HSR.
Wat je met HEBM bedoeld begrijp ik niet.
FSAA heeft de Geforce (2) wel degelijk, namelijk exact dezelfde manier als de Radeon. Alleen de Voodoo5 heeft een iets andere implementatie (gebaseerd op de accumulatie buffer, een techniek die al jaren in de special effects industrie wordt gebruikt).
HSR krijgt inderdaad pas de volgende generatie van nVidia kaarten. Echter op dit moment heeft de brute kracht van de Geforce 2 GTS geen probleem om de Radeon met HSR aan te kunnen. En dat zelfs voor een prijskaartje dat laatst nog lager was.
De eerste op de markt zijn met 32 bits kleur, de eerste op de markt met hardware T&L, de eerste op de markt met pixel shaders en hoogstwaarschijnlijk binnenkort als eerste op de markt met vertex shaders noem ik toch wel een behoorlijke prestatie.