Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 42, views: 13.497 •

Het aantal leveringen van grafische chips voor desktops en laptops is in het laatste kwartaal van 2012 fors gedaald ten opzichte van hetzelfde kwartaal een jaar eerder. Ook breidde Intel zijn marktaandeel een klein beetje uit ten koste van concurrenten AMD en Nvidia.

De bevindingen zijn afkomstig van marktonderzoeker Jon Peddie Research. AMD en Nvidia verkochten in het afgelopen kwartaal respectievelijk 13,6 en 16,7 procent minder grafische chips dan in het kwartaal ervoor. De verkopen van Intel daalde met slechts 2,9 procent wat erop duidt dat er in verhouding steeds meer systemen worden verkocht met een geïntegreerde videokaart. Intel wist zijn marktaandeel daardoor te vergroten naar 63,4 procent ten opzichte van 60 procent het kwartaal daarvoor. In het vierde kwartaal daalde de totale verkopen van desktop- en laptop-gpu's met 8,2 procent ten opzichte van het kwartaal ervoor en met 11,5 procent ten opzichte van een jaar eerder.

Omdat in bijna elke pc een losse of geïntegreerde videokaart zit zijn de leveringsaantallen van grafische chips een goede graadmeter voor de pc-markt. De resultaten passen in een trend die al langer gaande is en wordt veroorzaakt door de almaar toenemende populariteit van tablets en andere mobiele apparaten. Verschillende chipfabrikanten gaven al eerder aan dat consumenten steeds vaker voor dergelijke apparaten kiezen in plaats van een laptop of een desktop waardoor de verkopen op de pc-markt stagneren. Ook de komst van Windows 8 heeft hier geen verandering in kunnen brengen.

Reacties (42)

Lijkt mij ook best wel logisch want de integrated GPU's worden steeds sneller.
Ik denk dat er het komende jaar niemand een CPU koopt om te gamen (uitzonderingen daargelaten). De geÔntegreerde GPU is perfect voor neventaken en grafische toepassingen, maar om een beetje leuk te gamen...

Misschien speelt het ook mee dat er al een tijdje geen nieuw coredesign is uitgebracht?
Het speelt meer mee dat een normale persoon geen 300,- wil en hoeft te betalen maar prima met de GPU's kan werken. Dat is zo'n 90% van de markt.
Ook niet zo gek, en tel darbij op dat je niet altijd de bste of snelste kaart nodig hebt. Een HD5850 is nog steeds een klasbak en draait rustig zijn spelletjes mee. Ook zijn videokaarten behoorlijk aa de prijs en kan je het ook af met bijvoorbeeld een HD7770 van 100 euro. Vergeet de crisis ook niet, die zal ook een duit in het zakje doen.
Voor wat betreft Intel geldt waarschijnlijk dat elke CPU met geintegreerde GPU meetelt, ongeacht of deze gebruikt wordt te ja of te nee.

Ik heb ook 2 Intel GPU's in twee systemen, maar ik gebruik ze niet.
Dat zal Intel worst wezen, verkocht is verkocht.
Gelukkig komen er 2 nieuwe consoles aan :) (tenminste, gelukkig voor AMD)
Hangt af van hun marge dat ze hebben he... Ik neem aan dat de marge enorm beperkt is, en puur op volume gebaseerd is.
Ik denk dat xboxlivejunk voornamelijk doelt op de console ports richting PC toe.
De grootste reden waarom een GPU upgrade vandaag niet hoeft zijn die 5-6 jaar oude consoles. De meerderheid van de devs maken geen aparte engine die speciaal voor zware pc's bestemd is.

Persoonlijk hoop ik dat de nieuwe generatie van console ook terug innovatie qua hardware teweegbrengt, het lijkt wel een stalemate op het moment. AMD en NVIDIA lijken ook niet erg meer te concurreren met elkaar.
Het lijkt mij meer een verschuiving ipv een daling, de grafische chips in tablets moeten de fabrikanten toch ook verkopen? Die zijn blijkbaar niet meegenomen in dit onderzoek.
Het aantal leveringen van grafische chips voor desktops en laptops is in het laatste kwartaal van 2012 fors gedaald ten opzichte van hetzelfde kwartaal een jaar eerder.
Tablets zijn inderdaad niet meegenomen.
Inderdaad, het aantal mobiele gpu's zal alleen maar toenemen, dat staat ook in het artikel:
Het aantal leveringen van grafische chips voor desktops en laptops is in het laatste kwartaal van 2012 fors gedaald ten opzichte van hetzelfde kwartaal een jaar eerder.
[...]
De resultaten passen in een trend die al langer gaande is en wordt veroorzaakt door de almaar toenemende populariteit van tablets en andere mobiele apparaten.

[Reactie gewijzigd door tweaker2010 op 21 februari 2013 14:43]

Die zijn ook niet meegenomen en daar zijn Intel en AMD ook niet zo machtig als in de pc wereld hoor.
Ik had eigenlijk nog een andere verschuiving verwacht, en verbaas me er een beetje over dat ook de aantallen verkochte laptops daalt:

De tablet neemt een beetje de positie over van laptops, want mobiel en makkelijk.
De laptop neemt de positie over van de desktop. Weg met die sta-in-de-weg, een beetje laptop doet precies wat een desktop kan, voor de meeste consumenten dan.

Zo ben ik ook voor 100% op de laptop overgestapt, zelfs voor gamen, al betaal de een flinke smak geld voor een laptop die dat aankan. Voor het surfen op de bank en effe snel wikipedia raadplegen: de tablet. En voor onderweg natuurlijk gewoon m'n smartphone.

Voor de meeste mensen zal een geintegreerde grafische kaaart wel genoeg zijn, zeker als Intel met de nieuwste telg aankomt en mits die doet wat men belooft/insinueert (vergelijkbaar met de grafische prestaties van de Nvidia GT650)
Dit is slecht nieuws voor onder andere Nvidea. AMD levert aan alle drie de consoles, waarmee ze wel gpu's kunnen blijven leveren. Nvidea heeft het al moeilijk om de Tegra 4 te slijten aan fabrikanten, dus ook daar loopt het niet zo. Nu Intel ook gpu's gaat integreren in zijn socs wordt de mobiele markt ook kleiner. Wanneer je kijkt naar Haswell, dan liegen de prestaties er niet om: Skyrim wordt redelijk afgedraaid. Aan alle kanten heeft Nvidea dus te maken met toenemende concurrentie en een markt die snel aan het veranderen is.
Een andere reden die niet gerelateerd is aan Nvidea maar meer in het algemeen geldt voor gpu's is dat ze op de pc markt ontzettend duur zijn. Een fatsoenlijke kaart kost al snel rond de 100-200 euro, al wordt dat snel meer als je iets betere performance wilt hebben. Mensen voelen de crisis aan alle kanten, net als fabrikanten, dus wordt toch op dit soort dure delen bespaard. Niet iedereen hoeft op Ultrasettings te spelen, zeker niet als je het niet breed hebt. Een tweede reden is dat gpu's ontzettend veel vermogen nodig hebben om goed te functioneren en zelfs in idle soms meer verbruiken dan een standaard desktop. Allemaal factoren die meespelen. Intel, wederom met Haswell, heeft niet alleen een veel lager verbruik, maar neemt ook minder plaats in en integreert meteen een sterke cpu erbij voor een lagere prijs (dan wanneer je een i5/i7 plus fatsoenlijke videokaart moet kopen). Als laatste reden wil ik daar ook nog aan toe voegen dat videokaarten over het algemeen vrij lang meegaan. Het is niet nodig om elk jaar een nieuwe videokaart te kopen, want de meeste spellen zijn zelfs met een videokaart van 1 GB vrij goed te spelen. Voor de doorsnee consument is dit meer dan genoeg, als de videokaart niet lager is.
Vanwege deze redenen denk ik dan ook dat dit fenomeen zich door zal zetten en de verkoop van losse gpu's nog meer zal dalen.

[Reactie gewijzigd door South_Styler op 21 februari 2013 15:33]

Nu Intel ook gpu's gaat integreren in zijn socs wordt de mobiele markt ook kleiner.
Mag Intel dit wel? Want Windows mag ook niet zomaar IE explorer meegeven.
Elke chipmaker integreert een GPU in zijn SoC's, het zou raar zijn als Intel als enige dat niet mocht. Bovendien heeft Intel een minuscuul marktaandeel in tablet/telefoon SoC's.
. Een tweede reden is dat gpu's ontzettend veel vermogen nodig hebben om goed te functioneren en zelfs in idle soms meer verbruiken dan een standaard desktop
De meeste moderne mid tot high level GPU' s zitten aan een energie verbruik van +- 15Watt in idle. Sommige halen zelf onder de 10Watt.

Ik heb ondervonden dat maar weinig mensen research doen naar energie verbruik, en klakkeloos de oude GPU's van jaren geleden, vergelijken met moderne versies. Die vlieger gaat al lang niet meer op. Men PC zit rond de 70 a 80Watt verbruik, met een GTX 650 of whatever, Quad core Intel, en een serie Hd's dat in slaap toestand staan ( bij niet gebruik ). en technische is er wel altijd enige activiteit op de PC, waardoor er niets 100% echt in slaap toestand zit.

De jaren dat een mens om het jaar een upgrade moest doen, om mee te kunnen met de laatste moderne games, is idd al lang gedaan. De grootste verantwoordelijke daarvan is puur en simpel de consoles, en dat alles games tegenwoordig multi platform zijn, met de consoles dat achter lopen constant op de PC's.

En wie moet zijn PC tegenwoordig nog upgraden, voor "gewone" zaken zoals email, internet activiteiten, en andere toestanden. Een simpele tablet, heeft tegenwoordig zelf meer dan genoeg kracht voor al die taken. Er is idd een verschuiving aan de gang van hoe wel omgaan met media.

De PC als toren zal zelf nooit niet uitsterven, omdat je gewoon bepaalde zaken nooit 100% perfect kan doen op een laptop of tablet. Maar er is voor de "gewone" consument, minder reden voor een tower PC te hebben. Voor de professionals of gamers, dat is een andere zaak...
AMD levert aan alle drie de consoles
Fout, in de PS3 zit een Nvidia GPU. In de gisteren aangekondigde PS4 zit wel AMD, maar die is pas eind dit jaar te koop.

Verder is het Nvidia, niet Nvidea. Als je het over een bedrijf hebt kun je op z'n minst hun naam correct spellen (afwijkend hoofdlettergebruik is wat mij betreft meer iets voor logo's).

[Reactie gewijzigd door Wes op 22 februari 2013 01:41]

Na de introductie van de nieuwe consoles einde dit jaar, neemt de vraag wellicht weer iets toe als games een grafische sprong voorwaarts maken omdat er niet meer voor verouderde consoles wordt geprogrammeerd (waardoor een goede videokaart de afgelopen jaren geen upgrade nodig had).
Pas op wat je zecht de specificaties van de PS4 waremn nou niet bepaald overdonderend.
Van mij hebben ze ook al 5 jaar geen nieuwe kaart gezien aangezien ik een 2e hands GTX460 heb gekocht voor 100 euro die nog prima mee kan.

Een GTX650Ti die even snel is kost al gauw NU 145 euro. Een jaar geleden was dat een GTX560 non Ti die ook 150 euro koste.
Ik had na ~2 jaar wachten (en na een beetje sparen) vol goede moed een Nvidia 580 GTX gekocht, erop rekenend dat de kaart (mede door alle console ports) ~2 jaar mee zou gaan.

In de praktijk, is de kaart gek genoeg nauwelijks sneller dan de 8800GTS die er daarvoor in mn pc zat..

Vervolgens kwam Nvidia een maandje later met de 600 serie, en ~6 maanden later met de Titan serie, en nu is m'n gpu zwaaaaaaaaaaaar verouderd, in ~8 maandjes.

En daar word ik natuurlijk niet heel vrolijk van, wil opzich wel weer een Titan serie kaartje, maar kan het met de huidige economie & staat van mn bankrekening gewoon niet opbrengen.

En ergens wil ik het ook niet, want inderdaad ik heb bijna 4 jaar gedaan met een 8800GTS. Dat was dan misschien een zogenoemde 'sleeper hit' kaart, (hoewel niet op maximaal, draai je met die kaart zelfs nog BF3 met mooie/high graphics en goeie fps) had niet helemaal gerekend op weer 4 jaar te kunnen halen uit de 580GTX, maar 2 jaar minimaal, en dat is dus absoluut niet waar gebleken.

Daar komt vervolgens ook nog eens bij kijken dat de console ports vandaag de dag nog slechter zijn dan 2 jaar geleden, en je tegenwoordig meer rekenkracht moet hebben voor een minder ogende game. (mede ook omdat DX11 nog niet word meegepakt door de huidige consoles, maar 'wij' allemaal wel met DX11 gpus zitten, die (zeker de eerste series) 'van nature' langzamer zijn, omdat DX11 zelf de helft van het werk afvangt)

Dus ja, ik wil wel, maar kan het niet betalen, en vind het ook nog een beetje te vroeg om weer een gpu te kopen.

[Reactie gewijzigd door olivierh op 21 februari 2013 14:53]

Grappig, bij mij is het net andersom. Ik heb toen een 8800 ultra gekocht. Die is vroegtijdig overleden en daar ben ik nog steeds ziek van. Ik kan dus wel dure kaarten kopen maar doe het niet meer. Speel nu BF3 op medium met een GTX660 kaartje. (2560 x 1440) Ik zal nooit meer een dure kaart kopen.... en bedankt he NVidia :(

;)

Devi2012 - Ook op een scherm met resolutie: 2560 x 1440 ? En geen TI versie he ;-)

[Reactie gewijzigd door ocdaan op 21 februari 2013 16:24]

ik speel BF3 met mijn 660TI GTX toch echt op alles ultra
Als je zegt dat een 580GTX maar marginaal sneller is dan een 8800GTS is er iets goed mis... Dan denk ik niet dat je GPU de bottleneck is in je systeem. Want de performance van beide liggen mijlenver uiteen.

Edit: en de sleeper hit kaart was niet de 8800GTS, maar de 8800GT die goedkoper was dan de duurste GTS maar wel sneller was...

[Reactie gewijzigd door BlaDeKke op 22 februari 2013 12:47]

Na 2en een half jaar ging mijn HD5970 kappot, gelukkig heb ik deze kunnen vervangen door een nieuwe 5970 voor 200 euro, deze kaart kan nog makkelijk mee. Het is dan ook geen wonder dat de markt krimpt als kaarten van 3 series terug nog goed meegaan.
Ik heb precies de zelfde kaart, 5970, wat een monster. Ik snap niet dat mensen kaarten kopen nieuw van 400-500 euro als je een 2e hands kaart kan kopen (ik had hem erg goedkoop) die alle nieuwe dure voorbij pompt. Maarja als niemand nieuwe koopt kan ik geen oude kopen natuurlijk hehe.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013