Videokaarten zijn met afstand de meest besproken computercomponenten. Voor gamers is de videokaart dan ook het onderdeel dat de meeste invloed heeft op de prestaties, maar hoe werkt een videokaart eigenlijk? Vandaag nemen we een diepe duik in de moderne graphicspipeline, oftewel hoe jouw videokaart van 3d-modellen en textures razendsnel een compleet beeld maakt voor op je monitor.
Een korte geschiedenis van de videokaart
Als we het vandaag hebben over de prestaties van een videokaart, doelen we op de snelheid bij het renderen van 3d-beelden. Toch was dat oorspronkelijk helemaal niet de functie van een videokaart. De eerste videokaarten dienden om het 2d-beeld van de desktop te converteren van digitaal naar analoog; beeldschermen werden destijds immers met analoge interfaces als VGA aangesloten. Het belangrijkste onderdeel van een videokaart was dan ook de ramdac.
De eerste echte videokaart was de IBM Monochrome Display Adapter, zoals in 1981 gebruikt in de eerste IBM-pc's. Deze kaart kon nog geen losse pixels aansturen, maar alleen tekst weergeven in een vak van 80 kolommen en 25 rijen. Aangezien elk karakter bestond uit 9x14 pixels, was de resolutie van het complete scherm in theorie 720x350 pixels. In de jaren tachtig en negentig evolueerden zowel het aantal kleuren dat kon worden weergegeven, als de resolutie, totdat rond 2000 een combinatie van een 1600x1200-resolutie en het sRGB-kleurenpalet (16,7 miljoen kleuren) de standaard werd.
De eerste 3d-accelerators
In de jaren negentig begon de 3d-game aan zijn opmars. De uiterst populaire shooter Doom maakte in 1993 nog volledig gebruik van de processor voor het berekenen van alle beelden, wat de mogelijkheden op het gebied van graphics enorm beperkte. Traditionele cpu's waren weliswaar inzetbaar voor allerlei verschillende taken, maar niet geoptimaliseerd om continu dezelfde taak uit te voeren. Een chip speciaal ontworpen voor dit specifieke, uiterst parallelle rekenwerk zou dat veel efficiënter en sneller kunnen doen.
Dankzij de dalende prijzen van dram slaagde het Amerikaanse 3dfx er in 1996 in om een 3d-acceleratiekaart op de markt te brengen die voor normale consumenten bereikbaar was: de Voodoo. Zo'n kaart kon zelf geen 2d-beelden genereren en moest dus worden gecombineerd met een traditionele 2d-videokaart. In 1997 wisten concurrenten als ATI en Nvidia beide functies op één kaart te combineren. 3dfx kwam pas in 1999 met een competitieve 2d/3d-kaart, maar zowel technische nadelen als marktomstandigheden luidden het einde van dit bedrijf in, waarna het voornamelijk voor zijn patentenportfolio werd ingelijfd door Nvidia.
:strip_exif()/i/2004395042.jpeg?f=imagenormal)
AMD en Nvidia
Vanaf 2000 tot nu wordt de markt voor gpu's in pc's dus al gedomineerd door twee partijen: AMD (dat ATI in 2006 overnam) en Nvidia. Het basisprincipe van hoe een videokaart werkt, bestond toen al, maar in de afgelopen twee decennia heeft de videokaart er de nodige taken bijgekregen, taken die eerst bij de processor lagen, of geheel nieuwe functies, zoals tessellation en realtime raytracing.
In dit artikel zetten we uiteen hoe een gpu werkt, met de stappen van de graphicspipeline als leidraad. Kortom, zorg voor een verse kop koffie of thee en duik met ons mee in de wereld van de moderne videokaart.