Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

Een marktonderzoek van Jon Peddie Research laat zien dat het derde kwartaal van 2007 een topkwartaal was voor de losse desktopvideokaarten. Ten opzichte van hetzelfde kwartaal vorig jaar groeide het aantal verkochte kaarten met 18,7 procent.

De sterke groei van de verkopen is opmerkelijk omdat de markt onder druk staat door de toenemende populariteit van geīntegreerde graphics. Volgens Jon Peddie Research zijn de toegenomen verkopen te danken aan de introductie van Windows Vista eerder dit jaar. Veel mensen hebben een DirectX 10-videokaart aangeschaft.

Ten opzichte van het derde kwartaal vorig jaar is ook de gemiddelde verkoopprijs gestegen, van 228 naar 257 dollar. Ten opzichte van een half jaar geleden is het echter een nog sterkere stijging: toen ging een videokaart voor gemiddeld 172 dollar over de toonbank. Door de toegenomen vraag naar high-end DirectX 10-videokaarten is de gemiddelde verkoopprijs in het tweede kwartaal van 2007 sterk gestegen.

Data videokaartenmarkt
Grafiek afkomstig van X-bit labs
Moderatie-faq Wijzig weergave

Reacties (46)

Wat zijn discrete videokaarten? Ik heb het artikel van Xbit labs er even op nagekeken, maar een duidelijke definitie kan er niet uit afleiden? Zijn dat gewoon ingebouwde videokaarten ofzo?
Neen. "De sterke groei van de verkopen is opmerkelijk omdat de markt onder druk staat door de toenemende populariteit van geīntegreerde graphics."

Vereenvoudigd: de groei van markt A is opmerkelijk gezien de groei van markt B. Markt A zijn de gewone videokaarten, markt B de ingebouwde grafische kaarten.

De woordkeuze voor "discrete" is inderdaad verwarrend. In het originele artikel wordt het als synoniem gebruikt voor "standalone graphics cards". Het gaat hier dus ook niet over midrange kaarten of zo zoals iemand hieronder suggereert. het gaat, zeer eenvoudig, over niet-geintegreede grafische kaarten.

[Reactie gewijzigd door YellowOnline op 29 november 2007 21:47]

maar wat zijn de discrete videokaarten dan? middensegment in videokaartland?
discreet = losse add-on vga kaarten
uma / onboard vga = integrated in chipset
Dat zijn dus gewoon dedicated kaarten. Domme Nederlandse benaming slaat nergens op.
disˇcreet (bn.)
1 bescheiden, onopvallend => fijnzinnig
2 \[wisk.] los van elkaar staand, niet aaneensluitend <=> continu
Ofwel, een bescheiden/onopvallende videokaart... Iemand de nieuwe 8800jes wel eens gezien. Die dingen zijn niet bepaald bescheiden danwel onopvallend.

En om hier nou de wiskundige benaming voor te gebruiken slaat ook weer nergens op (daarbij is een los van elkaar staande videokaart nog nietszeggend eigenlijk).

In de computerwereld gebruiken we hier gewoon dedicated voor, een kaart dat gewoon zijn eigen geheugen en gpu heeft en het niet shared met het RAM of chipset.
Je geeft zelf het antwoord al.
2 \[wisk.] los van elkaar staand, niet aaneensluitend <=> continu
Dat lijkt me eigenlijk wel een goede omschrijving. Het ding staat los van de chipset. Oftewel niet geintergreerd. Want dat is waarmee vergeleken word.

In de elektronica noem je kleine losse onderdelen ook discrete componenten. De andere kant zijn namelijk geintergreerde onderdelen oftewel chips.

Maargoed feit blijft wel dat het de meeste lezers waarschijnlijk meer zegt als men "losse grafische kaarten" had gebruikt.
Discreet is een perfecte Nederlandse vertaling. Je geeft het antwoord zelf al. Moesten de meesten nu wat meer van de Nederlandse taal kennen (spelling, grammatica, betekenis, ... ) dan hadden we zo'n domme discussies niet.
Onleuke vertaalongein of stommiteit. Discrete =! discreet.
Heb nu ook een barebone servertje met een onboard Intel950, voldoende om HD kwaliteit af te spelen, daar waar ik bij m'n conputer nog steeds een videokaart nodig heb om redelijk te kunnen gamen.

Straks blijven de kaarten alleen nog maar over voor de verkoop van gamers en kan Intel hard terugslaan als ze in staat zijn om games goed genoeg te kunnen laten draaien met hun onboard chips die nu ontwikkelt worden en misschien zelfs meer met hun geintregeerde GPU op de CPU. Scheelt een hoop geld, zowel in aanschaf alswel in verbruik.

Misschien heeft ATi dit destijds zien aankomen en hun produkt bijtijds verkocht. AMD is ook wel bezig met onboard voorzieningen maar zullen denk ik pas na Intel hun intrede daarmee gaan doen. Nvidia heeft nog niets laten weten dus we zullen zien in de toekomst :)
Ik noem een AMD 690G of de nieuwe AMD 790G chipsets. Deze zijn compleet met geintegreerde videochip die ook nog eens HD-content kan afspelen, eventueel via een HDMI poort (als de mobo-fabrikant deze wil monteren/meeleveren via plug-in).

AMD is dus ook al bezig om geintegreerde oplossingen te pushen. Daarbij zijn de drivers ook van dien aard dat je met het kaartje ook nog games kunt spelen (en ja, op low settings natuurlijk).
Ah kom op, dit zal never nooit niet gebeuren. De GPU's die nodig zijn om de huidige spellen goed te kunnen draaien zijn zo gigantisch complex dat je die niet meer in een northbridge, of op de processor kwijt kan. Zowel ATi's als nVidia's high end GPU's tellen meer transistoren dan intel's en AMD's processors...
Waarbij je ook moet zeggen dat die graka's dedicated zijn, dus een cpu zal ook nog eens minder effectief zijn.
Volgens mij wil het feit dat er meer videokaarten verkocht zijn niet automatisch ook zeggen dat het marktaandeel groter geworden is. Wie weet zijn er gewoon 18,7% meer PC's verkocht ten opzichte van vorig jaar...
Ik denk niet echt dat het door DX10 is hoor
maar introducties zoals 8x00/2x00 reeksen
en in Q4 zal de markt wel zeker stijgen door enken en alleen maar crysis :D

Even vermelden dat dit enkel om Q1/Q2 en Q3 resultaten gaat
De impact van crysis is enkel maar mogelijk vanaf Q4 als je het mij vraagt :)

[Reactie gewijzigd door de_nille op 30 november 2007 01:45]

Mja Crysis en Unreal 3 lijken me zeker redenen voor de hogere verkopen. Ik heb niet het idee dat er sinds FEAR en misschien Oblivion zulke gigantische stappen zijn genomen in graphicsland. Ikzelf heb een vrij eenzijdig beeld van tweakers en heb niet echt een idee hoe groot de impacht van Vista en daarmee DX10 is op de casual gamer. Zeker nu het merendeel van de mensen tegenwoordig een laptop aanschaft ipv een PC vallen deze cijfers me zeker niet tegen!
Edit: Evenals een hoop van de mede-tweakers hier vraag ik me nog steeds af wat er met discrete kaarten bedoeld wordt... Discreet --> standalone kaart dus. In dat geval zitten we ook al veel te lang aan de GF6200 achtige onboard oplossingen vast. Zelfs de 690G staat nog steeds in schriel contrast tot de betaalbare "discrete" kaarten.

[Reactie gewijzigd door TeXiCiTy op 29 november 2007 22:21]

Geen kritiek ofzo, maar jullie hebben het nou over gamers.. die maken gebruik van kaarten die Unreal en Crysis aan moeten kunnen... overigens reken ik hier ook Photoshoppers en dergelijke bij, mensen die een zware video kaart nodig hebben!
Maar er zijn denk ik ook een heleboel 'casual' klanten die een zogenaamde 'discrete videokaart' aanschaffen puur vanwege het feit dat die beter zijn, of dat die in een volledig systeem zitten.
Ik heb pas nog iemand gehoord die een video kaart had met 2 video kaarten (ben even officiele benaming kwijt, geen SLI, 2 videokaarten op 1 PCI-e slot) terwijl ze alleen dr mail nakijkt en pacience speelt...
mensen laten het zich aanpraten door kennissen of hardware verkopers... Beinvloedbaar, helaas voor hun...
mensen laten het zich aanpraten door kennissen of hardware verkopers... Beinvloedbaar, helaas voor hun...
Ja, jij schijnbaar ook... Want voor Photoshop heb je helemaal geen aparte videokaart nodig... Voor videobewerking ook niet... Allemaal 2D, en daarvoor zijn on-board videokaarten allang toereikend....

Overigens heeft die persoon vast geen 2 videokaarten, maar 2 DVI-uitgangen zodat er 2 schermen op aangesloten kunnen worden.. Mocht het toch gaan om bij.v een Geforce7950 (wat me sterk lijkt) dan zijn het idd 2 videochips op 1 plank, maar dan hebben we het nog steeds over SLI.
met photoshop heb je gelijk, deze is vooral cpu afhankelijk.

met videobewerking zit je er compleet naast, alle moderne videoberwerkings pakketten (zowel editing als compositing) gebruiken video acceleratie en vaak opengl (ook voor 2d) om previews te versnellen en effecten toe te passen. ik werk er dagelijks mee en dit maakt een wereld van verschil! veel is gpu gedreven en pas als je je uiteindelijke render aanzet zal het puur cpu werk zijn. maarja dat geld ook voor een 3dmax scene die ik uitrender, daar heb ik ook geen 3d videokaart voor nodig... wel voor de preview en realtime feedback in de viewport.

kijk eens naar programmas als aftereffects, premiere of finalcut.. allen gebruiken de gpu en er is een duidelijk verschil in gebruiks gemak en snelheid tussen een elcheapo onboard of een dedicated kaart.

daarnaast krijg je steeds meer effecten die ook voor de rendertime op de gpu leunen, dit mede door de "general purpose" toepassingen en mogelijkheden die er voor hedendaagse gpu mogelijk zijn. rendertijden gaan omlaag en je volledige systeem word benut op rendertijd, kijk bijv. eens naar een gelato van nvidia. laat maar komen denk ik, ik ben dagelijks toch aardig wat tijd kwijt met renderen en probeer dit toch tot een minimum te beperken.
Ja je hebt gelijk... Worden inderdaad gebruikt voor live previews... Ik dacht overigens dat het alleen nog maar in Final Cut Pro en Motion zat(Apple pakketten).. Volg de PC-kant (Lees Adobe-video production, After Effects e.d.) niet zo. Bedankt.
Tegenwoordig gebruikt de nieuwe Photoshop ook grafishe acceleratie en dat zal natuurlijk alleen maar meer worden. En voor Photoshoppen op zeer hoge resoluties en meerdere beeldschermen heb je toch echt een zware videkaart nodig om dat allemaal snel te kunnen doen.
m'n photoshop cs3 maakt anders gebruik van gpu acceleratie :)

het is wel inderdaad 2d, en vooral processor intensief tijdens bewerkingen en vooral geheugen is onmisbaar als je met grote bestanden werkt.

overigens is een gpu langzaam aan niet alleen een 3d graphics unit meer, m'n render werk doe ik ook een stuk sneller nu het ook de gpu gebruikt via nvidia's cuda.
en zoals gezegd photoshop kan vanaf cs3 enhanced gpu acceleratie gebruiken. enz.

(er worden ook supercomputers gemaakt op basis van nvidia's gpu's om maar wat te noemen, nvidia heeft die programmeertaal voor hun gpu's niet voor niks gelanceerd.

[Reactie gewijzigd door Innsewerants op 30 november 2007 05:50]

Ja kan idd GPU support aanzetten in PS3 (zie ik nu net)... Maar volgens mij doet ie niet zoveel met het gebruik van filters... Is voornamelijk voor gebruik van de tekentools (pen, brush). Zat ik er inderdaad toch een beetje naast met mijn harde stelling...
Het is ook nog niet zo lang zo :) , maar sinds die programmeertaal voor de gpu's uit is zie ik wel veel projecten opduiken die er gebruik van (pogen te) maken. Wordt nog leuk namate meer ontwikkelaars gebruik gaan maken ervan :)

Ik geloof hij gebruikt het gpu gedeelte in ps vooral met de enhanced 3D dingetjes. Moet ik wel eerlijk bij zeggen dat ik daar nog niet echt gebruik van heb gemaakt. Nog niet nodig gehad. Ik heb wel een resize plugin die gebruik maakt van fractals voor mooiere blow ups (gruwel). hij maakt wel erg goed gebruik van de gpu geloof ik. heb hem getest maar hoe belachelijk de resize ook is, veel cpu gebruikt hij er niet voor en het moet ergens vandaan komen. ik gooi het maar op het vinkje in de plugin bij 'use gpu support if available' in de plugin.

[Reactie gewijzigd door Innsewerants op 30 november 2007 13:18]

"Discrete" videokaarten? Beetje te letterlijk vertaald als je het mij vraagt, heb het dan over het "middensegment" (gezien de prijs).
Nee over de standalone videokaarten.
Losse videokaarten had de correcte vertaling geweest
Dit komt uit het latijn en betekent afzonderlijk, afgezonderd, apart, los
http://en.wikipedia.org/wiki/Discrete
Zou het toch niet met vista te maken hebben? En daarme de dx10 hype...
Vindt niemand het interessant om in te gaan op de prijsdaling ten opzichte van vorig kwartaal? Verkoop # stijgt en prijs daalt!? Intuītief zou ik zeggen dat dit wijst op relatief meer aankopen om gewoon DX10 te hebben (basic kaart met DX10 ondersteuning dus) ten opzichte van de duurdere gamers kaarten. Nog een indicatie dus van de verdere ontwikkeling van deze markt naar een kleinere nichemarkt.

[Reactie gewijzigd door deef_Vg op 29 november 2007 22:31]

Lijkt me meer een resultaat van prijsdalingen. Zijn niet echt nieuwe videokaarten gepresenteerd in het derde kwartaal voor zover ik weet.

Ik verbaas me eigenlijk meer over de hoogte van de gemiddelde verkoopprijs van de videokaarten. 257 dollar is toch al bijna 175 euro en daar koop je ongeveer een 8800GT/HD3870 (als ze beschikbaar zouden zijn). Dat zijn toch echt flinke High-End kaarten. Nu ben ik me er wel van bewust dat de meeste winkels hogere marges hanteren, en daardoor de "selling price" wat hoger komt te liggen, en dat er ook QUADRO's zijn die richting de 3000 euro gaan, maar dan nog lijkt het bedrag me nogal aan de hoge kant.

Dat de hogere afzet zou liggen aan het feit dat Windows Vista is geīntroduceerd lijkt me ook onzinnig; juist in het kwartaal waarin het werd geīntroduceerd was het afzetvolume het laagste van de afgelopen 7 kwartalen.
"Volgens Jon Peddie Research zijn de toegenomen verkopen te danken aan de introductie van Windows Vista eerder dit jaar. Veel mensen hebben een DirectX 10-videokaart aangeschaft."


Dat mensen nu een DX10 kaart aanschaffen wil toch niet meteen betekenen dat diezelfde mensen ook Vista bezitten? Lijkt mij een persoonlijke conclusie van de persoon in kwestie.
T zou natuurlijk wel zonde zijn, een mogelijkheid krijgen en er geen gebruik van maken, met dat DX10 :)
Die average selling price van 257 dollar verbaast me wel (even rekenen: 174 eu). Dat zou betekenen dat er ongeveer evenveel op high end als op low end en mid end wordt verkocht anders zou het bedrag nooit zo hoog uitvallen. Ik dacht dat er voor elke 8800gt. 10 8600gt's verkocht werden en 20 8400's. Blijkbaar niet dus....
Zet daar nog even een Quadro boven van 2000 euro en je gemiddelde komt al wat hoger uit.

mensen moeten even verder kijken dan gamers en vista gebruikers. Er zijn genoeg normale gebruikers die naar een computerzaak gaan en zeggen ik wil foto en videobewerken en heb een pc met geintegreerde kaart. Het eerste wat een verkoper doet is een losse kaart verkopen.
Dan zijn er nog de mensen die vista willen draaien op een oudere pc, hoppa nieuwe kaart erin.
Vaak worden nieuwe pc's verkocht met een Gforce 8400 ofzo, die kosten geen drol maar zijn toch losse kaarten. Is voor de koper hetzelfde als een geintegreerde kaart, namelijk dat ze neit weten wat het is of er gewoon niks om geven.

[Reactie gewijzigd door TMon op 30 november 2007 10:45]

Verkopers....

Er zijn verkopers die pretenderen veel van games en de hele rataplan er om heen af te weten, die nog steeds blaten dat amd processors de bom zijn voor gamers. Daarbij niet weten over geheugen latency s, niet geheel onbelangrijk op amd platforms.
Er zijn verkopers die nog steeds alleen maar zalman verkopen omdat dat de beste koelers zijn. Er zijn verkopers die helemaal wild zijn van een antec ninehundred case (standaard 3x 12cm fan +1 20cm fan 2x 12cm fan optioneel) maar zeggen dat overclocken eigenlijk helemaal niks is. Wat moet je met zoveel luchtverplaatsing als een boeing 747 als je toch alles maar standaard draait 8)7
Mischien zouden die gasten ook eens wat vaker op tweakers.net moeten rondstruinen :)

Maar voor de doorsnee consument maakt het toch niet uit. Die hebben gehoord dat die winkel echt een goeie computerwinkel is, dus die consumeert gewoon lekker door.

Ik ga ook nog steeds naar zulke winkels. Al is het alleen maar om even lekker te kunnen discuseren :Y)

edit:

even iets meer ontopic nu.
zou de steiging in de verkoop van losse videokaarten ook niet iets te maken hebben met het feit dat de games tegenwoordig met steeds grotere sprongen zwaarder en zwaarder worden?

[Reactie gewijzigd door 666pack op 30 november 2007 20:50]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True