Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Bron: Toms Hardware, submitter: G_M_C

Ome Tom was wel eens benieuwd naar de zin en onzin van de grafische krachtpatsers die in veel moderne computersystemen te vinden zijn en besloot te onderzoeken welke videokaart een gebruiker nu eigenlijk echt nodig heeft. Niet alleen kijkt men of een krachtige videokaart wel nodig is, maar men vraagt zich ook af of het ontbreken daarvan in een entry-level pc het nut van dit systeem onderuit haalt. Een dergelijk systeem wordt namelijk niet gebruikt voor veeleisende games en voor het weergeven van video's en dvd's volstaat de eenvoudigste beschikbare videokaart. Het wordt een ander verhaal wanneer men HDTV bekijkt, omdat er dan aanzienlijk meer data verwerkt moet worden. De enige echte reden voor al het grafische geweld waar we tegenwoordig mee om de oren geslagen worden is terug te vinden in games die steeds realistischer en veeleisender worden.

ATi logo (klein)Aangezien de eisen die aan de grafische kaart gesteld worden afhankelijk zijn van de taken die men ermee wil gaan uitvoeren, wordt een onderscheid gemaakt tussen de 'Internet & Office'-gebruiker, de mainstream gamers, de die-hardgamer, de multimediagebruiker en de gebruiker van professionele applicaties. Voor de kantoorgebruiker is de reviewer duidelijk: aangezien deze systemen nooit met games in aanraking komen volstaat hier eigenlijk zelfs een onboard geïntegreerde oplossing. Wie toch een extra videokaart wil installeren kan terecht bij de Radeon X300, Radeon 9200, Volari V3 of GeForce 4 MX. De gewone gamers kunnen het beter bij de Radeon X600, X700, 9550 en 9600 zoeken. In de nVidia-stal kunnen zij terecht bij de GeForce 6200 en 6600. Alternatieven zijn er in de vorm van S3's DeltaChrome S8 en XGI's Volari V5.

XGI Volari Z7 badgeDie-hardgamers eisen echter het maximale van hun hardware en kunnen het dan ook beter in de hogere regionen gaan zoeken. Zij zullen niet teleurgesteld worden door de Radeon X800 of X850 en de GeForce 6800. In de multimediasector is het namelijk vooral ATi die domineert met zijn 'All in Wonder'-reeks. De Personal Cinema-kaarten van nVidia zijn vergelijkbaar, maar bevatten veel minder recente modellen. Matrox biedt dan weer oplossingen voor het meer professionele capture-werk. Ook voor CAD-tekenaars en andere professionele gebruikers zijn er alternatieven, waaronder 3D Labs' Wildcat en Matrox' Parhelia. ATi en nVidia worden hier respectievelijk vertegenwoordigd door de FireGL- en Quadro-lijn.

nVidia logoIn zijn conclusie stelt de reviewer dat het vooral ATi's en nVidia's ambities om steeds snellere kaarten met betere prestaties te produceren zijn die de prijzen van de videokaarten de hoogte in gejaagd hebben. Voor het grootste deel van de gebruikers is al deze grafische kracht echter overbodig en deze fabrikanten zullen zich volgens Toms Hardware dan ook moeten herpakken als ze een echte rol willen blijven spelen op de entry-levelmarkt. De geïntegreerde oplossingen in chipsets en onboard chips vormen namelijk een belangrijke concurrent voor de low-endvideokaarten. Met de nForce-chipset heeft nVidia op deze markt een belangrijk voordeel, hoewel de Xpress 200 van ATi een sterk alternatief is. De recente goedkope kaarten, de X300 HyperMemory en de GeForce 6200 TC, zijn vanwege hun prijs echter niet interessant voor kantoorgebruik en vanwege de prestaties niet interessant voor gamers, aldus de reviewer.

Collectie videokaarten
Nostalgie met een collage van alternatieve videokaarten
Moderatie-faq Wijzig weergave

Reacties (44)

Mwah, ik weet niet of prijsverhogend helemaal op zijn plaats is. Ik kan mij namelijk nog herinneren dat ik destijds voor mijn Voodoo 2 kaartje van 8mb meer dan fl800,- heb neergeteld en dat was dus niet het topmodel (toen de 12mb versie). Wanneer dan ook nog eens de wereldwijde prijsstijgingen (van wat voor consumentenproduct dan ook) in acht worden genomen denk ik dat er niet zoveel verschil zit tussen de fl800,- die ik toen heb neergelegd en het bedrag dat nu dient te worden neergelegd voor een vid.kaart gepositioneerd onder het topmodel.
Als je fl. 800,- veel vindt: de nVidia Quadro / PNY Quadro FX4000-SDI 256MB GDDR3 kost ¤ 5939,- (PriceWatch)

Natuurlijk gaat alles snel. De GeForce2 Ultra was enkele jaren geleden de extreemste kaart van allemaal. De GeForce4MX presteert nu hetzelfde en wordt nu gezien als een low-end kaart. Over een jaar of twee zijn de X850 en 6800 ook low-end.
Inderdaad, de topmodellen zijn altijd duur geweest, en door de ratrace tussen Ati en Nvidia wordt er in een hoog tempo doorontwikkeld.
Maar kijk eens naar de midrange-kaarten? Voor minder dan 200 euro heb je een kaart die tecjnisch geavanceerder is en beter presteert dan de topmodellen van twee jaar geleden. Dus hoezo prijsopdrijving?
Ik kan me tijden herinneren waarin ik een simpel kaartje voor een office bakje voor rond de 30 GULDEN kon kopen. Dat is minder dan 15 Euro's.

Het goedkoopste kaartje in de pricewatch is momenteel de Club3D Radeon 7000 32MB voor ca 25 Euro's.

Zie daar het effect van de concurrentie. Ze zijn zo druk bezig om hun nieuwe kaarten en onzoek te financieren dat de budget kaarten nooit meer het prijsniveau van voor de concurrentiestrijd zullen halen.
Dat is natuurlijk weer een vergelijking van niks, want vroegah had je ook voor een dubbeltje een brood, die kosten nu ook bijna 2 euro :Z :Z :Z
Jij koop zeker bij de AH? En dan moeten er ook nog goudkleurige pitten op zitten zeker?
Iets wat eigenlijk al gewoon een tijd bekend is, althans voor de mensen die thuis zijn in deze hardware markt en alle GT's XT's Pro's en MX-en nog van elkaar kunnen onderscheiden.

Desalniettemin vind ik het een mooi en erg duidelijkheid scheppend overzicht wat ome tom geeft en het bevestigt gewoon nogmaals wat velen al weten. Ieder z'n meug en daarbij ook een passende beurs.

Dat dor de concurrentie de prijs de hoogte in gejaagd is vind alleszins een vreemde verwoording, want normaal zegt men dat concurrentie erg goed is voor de prijzen maar hier doet men het juist laten lijken alsof door al die concurrentie wij gamers 500 euro voor een kaart moeten neertellen.
in zekere zin is de concurrentie hier inderdaad prijsverhogend

Op andere markten gaan fabrikanten namelijk tegen elkaar opbieden met steeds lagere prijzen. In deze markt willen ze elkaar echter de loef afsteken met steeds snellere kaarten en dat resulteert in steeds hogere prijzen
...althans voor de mensen die thuis zijn in deze hardware markt en alle GT's XT's Pro's en MX-en nog van elkaar kunnen onderscheiden.
Nu D-Devil er nu toch over begint: Wat is het verschil eigenlijk?
Goh, dit hangt af van de generatie videokaart. Bij nVidia was in de GeForce FX reeks "XT" of soms ook "LE" het toevoegsel om een tragere versie aan te duiden. "Ultra" werd gebruikt om de snellere versie te benamen. Bij de ATi Radeon 9xxx ligt het weer net anders, "XT" staat voor de snelste versie, "Pro" ligt tussen de gewone en de XT versie in en "SE" wordt gebruikt om het traagste model aan te duiden.

Bij ATi is er met de Radeon X serie eigenlijk niets veranderd.

Bij nVidia wordt nu het toevoegsel "Ultra" gebruikt om de snelste variant aan te duiden, "GT" voor de variant tussen de normale en de snelste en "LE" om de tragere versie aan te duiden.

Dan heb je natuurlijk soms nog verschillen tussen fabrikanten die hun eigen aanduidingen verzinnen om een minder brede geheugenbus aan te duiden of een lager of hoger geclockte geheugensnelheid.

Zo heeft Sapphire een 9800 Pro met een geheugenbus van slechts 128bit ipv de gebruikelijke 256bit.

Ik ben er zeker van dat ik enkele aanduidingen ben vergeten of heb overgeslagen maar dit zijn de meest gebruikte. Ik hoop dat het wat duidelijk is voor je :)
Ter vervollediging,
de MX was in de vorige generatie nVidia kaarten de tragere versie. De GeForce 4 MX was eigenlijk niet meer dan een opgewaardeerde GeForce 2.
Als ik het goed begrijp valt -bijvoorbeeld- de 9800Pro/XT compleet buiten de boot? Heeft dit te maken met het kosten aspect?
ik denk dat ze zich hier beperkt hebben tot de nieuwste generatie.
en als je nu een 9800 koopt had je ook voor een x700 kunnen gaan en minder betaald voor meer prestaites (en een stuk minder warmte)
Ik denk het wel, omdat je in dezelfde prijsklasse beter een X700 of 6600GT kan kopen tegenwoordig..
Ik vind het goed dat hun ambitie's hoog liggen, maar, er zijn grenzen. De grens ligt hem voornamelijk in de prijs. Iedereen wil zijn games maximaal kunnen spelen, maar daar heerst een nogal hoog luxe prijskaartje aan. Helemaal nu ze met de oplossing komen voor een dubbele videokaart.

Natuurlijk zijn de meeste gebruikers ervan bewust dat je meer betaald voor iets nieuws, maar ik vind het plaatje, prijs/kwaliteit van de laatste jaren, niet meer in verhouding. Zeker omdat ze minimale performance winst behalen met een nieuwer model.

Ik verwacht voor deze prijzen dan ook minimaal een grotere performance winst, wat vaak helaas niet het geval is. Of start met lagere prijzen en bereid je voor op massa produktie. Zo word de markt meer bereikt en komt een high end kaart voor meer users in bereik. Ook verwacht ik wel eens echt iets nieuws van de gpu bakkers. Een mooi voorbeeld zijn de cpu developers, die tenminste door hebben dat ze een nieuwe ontwikkeling weg moeten inslaan.

Ik upgrade vroeger ook veel sneller, maar heb dat afgeleerd. Dan maar wat minder zware settings voor een nieuwe game, als het maar draait. Om nu iedere keer zoveel geld neer te leggen om wat te gamen in high settings, die tijd is voorbij.

Overigens verwacht ik nu echt wat nieuws voor de eind gebruiker. Misschien word het eens tijd om een totaal nieuwe architectuur te ontwikkelen. Alleen een gpu chip insteken die gebruik maakt van het hele systeem, en niet steeds een hele plank. Moet mijns inziens allang mogelijk zijn, gewoon een insteek slot/gpu/koeling, meer niet. Ik sluit me dan ook volledig aan bij de slot conclusie in het artikel. Ze slaan de plank een beetje mis op het moment, en wij, gebruikers, mogen die prijs betalen, als je dat al doet ;) Het ligt bij ATI/Nvidia/AMD/Intel/MS/Linux/gamedevelopers om dat nu eens te gaan veranderen en samen naar de toekomst te gaan kijken om nieuwe baanbrekende ontwerpen neer te gaan zetten.
Dat wordt expres achterwege gehaald vanwege commercie. Er zijn allang bijvoorbeeld veel betere opslagmethoden en andere technologieën, maar de winst moet eerst worden terug verdiend bij de huidige omdat research gewoon hardstikke duur is.

En als je echt lang spellen wilt spelen op je hardware kun je beter een console halen. Ik gebruik alleen consoles voor games. In tegenstelling tot PC-spellen, waar je al snel niet meer voldoet, worden games bij consoles juist steeds mooier op dezelfde hardware. Als je naar GT4 en Tekken 5 kijkt, dat is gewoon echt een sterke verbetering. Bij consolegames gaan ze juist software maken voor hardware, terwijl je in de PC-wereld hardware voor software maakt.

M'n PC gebruik ik daarom uitsluitend voor het brute rekenwerk (PovRay, compileren etc.). Jouw idee van een GPU-chip is echt wat er zou moeten komen. Ik ga liever een GPU kopen dan weer een hele kaart met alle toeters en bellen erop. Dat zou zowel in kosten als ruimte schelen. Ook beter voor de airflow.
Dit geldt niet alleen voor videokaarten. Voor een office PC, of een internet PC is en 1.5 GHz cellie, met 512 memmem ook genoeg. Dat hoeft nog steeds geen A64 te zijn, of een super Intel op 4 GHz.
Het probleem daarmee is dat de meeste mensen met een office bakkie er ook een internet machine van hebben gemaakt... MET xp derop. dus dan heb je een OS dat redelijk veel van je proc vraagt en met heel erg veel zekerheid wel een 3tal of meer spy's hebt die over je schouder meekijken, dan loop je met je 1.5 GHz niet erg ver meer :)

ik heb voorlaatst die van m'n vriendin maar geopgrade nr een sempron 2400, gewoon om enkel in het weekend nog de rommel op te moeten ruimen.

en ja, MET virusscanner, die vreet trouwens de helft van de datalimiet van haar internet door upgrades...

voor mijn part moegen ze die spyware programmeurs gelijk allemaal voor de muur zetten...

edit: typos
Wat een onzin.... voor een vriend van me laatst een budgetpc met sempron 2200 en 256 MB in elkaar gezet en zijn oude TNT2 kaart... is niet ruim, maar loopt als een tiet (voor een office pc heb je minder nodig, hij had er XP op staan en het kastje is echt verbazingwekkend snel). Paar browsers, virusscanner, firewall en Word geopend lukt nog makkelijk, zelfs spellen als Max Payne 2 zijn nog goed te draaien.

En of je nou een 1500 of een 2400 hebt: als je maar genoeg zooi erop hebt, loopt het allebei niet lekker. 1500 is zat voor een officepc. Op mijn werk hebben we veel PIII 400 mhz met 128 MB staan (met win2000), en met een goed beheer, lopen die stukken beter dan veel nieuwe pc\\\\\\\'s die de medewerkers thuis hebben staan en die naar me toe komen met problemen.
Weer een geweldige review met eigenlijk niets minder dan een conclusie die bij de meerderheid bekend is (die de review zouden lezen).

Iedereen weet al lang dat games de drager zijn voor het onwikkelen van de high end kaarten van nVidia en Ati.

Iedereen weet ook dat als men professioneel bezig is met CAD en 3D modeling dat je daar weer een ander type kaart voor nodig hebt.

Ik ben het trouwens niet geheel eens met deze stelling
In zijn conclusie stelt de reviewer dat het vooral ATi's en nVidia's ambities om steeds snellere kaarten met betere prestaties te produceren zijn die de prijsstijging van de videokaarten de hoogte in gejaagd hebben.
De prijsstijging heeft overal plaatsgevonden. Heel ver vroeger betaalde je voor je TNT2 ook de hoofdprijs. Dat geld met alles wat top-of-the-line is.
Toen ik mijn Ti4600 kocht was deze ook ¤ 550,-
Meer keuze in moederborden met on-board grafische chips zijn zeker welkom. Het zou ideaal zijn voor iemand als ik die nooit PC-games speelt. Momenteel ben ik meer dan tevreden met m'n passief-gekoelde GeForce4MX. Lekker stil.
Todat je 2D-ontwerper bent die twee flinke monitoren wil. Dan zou je dual-DVI moeten hebben en dat zit weer alleen op de duurdere kaarten. Dan klopt het verhaaltje dus niet helemaal...
Niet alleen de dure kaarten. Een oude Geforce FX 5200 van mijn broer heeft het namelijk ook :D
Okok, *sommige* betaalbare kaarten hebben dual-DVI. Maar in het duurdere segment hebben ze het bijna allemaal (de Parhelia bijvoorbeeld, niet bepaald goedkoop).
Och, een XFX 6600GT heeft voor 180 euro ook 2x DVI en een tv-out... Dat vind ik niet duur :).
@ wfh, ik heb ook nooit gezegd dat ik fl800,- veel vind, ik gaf alleen dat er niet veel verschil zit in prijs tussen een toendertijd onder het topmodel gepositioneerde vid.kaart en eentje die tegenwoordig onder het topmodel gepositioneerd wordt.

Wat betreft je opmerking over een nVidia Quadro; allicht dat deze stukken duurder is, het betreft hier ook een hele andere markt. "what's your point?"
Dat is altijd zo. Ze gaan het oude assortiment simpelweg van de schrappen halen en dan wat beters voor dezeflde prijs aanbieden. Wanneer de prijzen blijvend zouden dalen voor de huidige produkten, dan zag men geen aanleiding meer om iets van 200 euro te kopen als je iets van 5 euro kan krijgen omdat je niet meer dan dat nodig hebt. Door de oudere produkten niet meer aan te bieden word je gedwongen om betere aan te schaffen. Het is niet onredelijk dat de prijzen van nu gelijk zijn aan prjizen van produkten van dezelfde prijsklasse van vroeger. De produkten zijn zowiezo veel nieuwer, hoewel het klopt dat er enige verzadiging optreedt als het gaat om performance, vooral bij CPU's: Op een Athlon 700 MHz duurt het 30 seconden om een MP3 te coderen terwijl een Pentium 75 MHz er wel 40 minuten over deed. Die verschillen vind je niet meer. Mede daarom betrek ik de Quadro erbij: als je VEEL meer performance wilt, moet je vanwege de performanceverzadiging ook een extreem hoger prijskaartje betalen.
Wat is wijsheid? Een punt achter deze discussie zetten want deze dwaalt enorm af. Ik snap werkelijk waar niets van je posts. Je tikt een ellenlang verhaal bevattende informatie die het gros wel weet en volgens mij totaal niet van toepassing is op de eerste post die ik heb geplaatst.

nog éénmaal om het geheugen op te frissen:
Er wordt beweert dat concurrentie tussen vid.kaart-producenten de prijzen heeft opgejaagd.

Zoals reeds aangegeven ben ik het daar NIET mee eens (voor argumentatie zie eerste post)

Ben jij het nou met de stelling, concurrentie tussen vid.kaart-producenten heeft de prijzen opgejaagd, EENS of NIET EENS?

m.v.g. ;) :P
Ik ben het wèl met de stelling eens. Niet om jou te pesten, maar omdat de performance is verzadigd zoals ik zei. Dan bedoel ik prijs/performanceverhouding. De voorganger van m'n GeForce256 was een Ati Mach64 met 1 MB geheugen. Binnen vijf jaar gebeurde de evolutie van Mach64-achtige kaarten die niet eens 16-bit kleuren konden weergeven naar de oneindig veel geavanceerdere GeForce.

Kijken we naar de huidige ontwikkeling, dan zijn de kaarten van vijf jaar later zeker niet lichtjaren verder qua technologie. Het verschil tussen een GeForce256 en een 6800 GT of X850 is niet zo groot als het verschil tussen een simpel 1 MB-kaartje en een GeForce of Radeon.

Dus vandaar, de prijzen per performance zijn weldegelijk flink opgevoerd. In absolute zin zijn ze natuurlijk wel gelijk, maar qua upgradehoeveelheid krijg je minder voor hetzelfde bedrag, dus prijsopdrijving. Wanneer het geen prijsopdrijving zou zijn en je tegenwoordig gewoon hetzelfde verschil zou krijgen, dan moeten ze gewoon een x850 PE voor 100 euro aanbieden, maar dat is niet realistisch gezien de huidige markt.
ja hallo die is ook 10x zo snel als een p75

als men iets wil maken dat 10x zo snel is als een P4 3 GHZ moeten ze dus alweer een 30 GHZ maken ????? of een complete nieuwe disign core , maar das kost meer dan 10x die research kosten dan die sprong van 75 naar 700 mhz.
In de nForce zit toch al sinds de nForce1 (en in een nForce2 van MSI) geen onboard video meer :?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True