Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties

AMD zou Nvidia zijn voorbijgestreefd in het aantal losse videokaarten dat wordt verkocht, aldus marktonderzoeksbureau Mercury. AMD bezit 51 procent van de markt, terwijl Nvidia 49 procent voor zijn rekening neemt.

In het tweede kwartaal van 2010 zou AMD meer losse videokaarten hebben verkocht dan Nvidia. AMD was goed voor een marktaandeel van 51 procent tegenover 49 procent voor Nvidia. In het tweede kwartaal van 2009 waren de rollen nog omgedraaid. AMD en Nvidia hadden destijds respectievelijk 41 en 59 procent marktaandeel in handen.

AMDAls ook de igp's worden meegerekend is Intel nog steeds ruimschoots marktleider, met een marktaandeel van 54,2 procent. Maar ook hier verliest Nvidia marktaandeel, aangezien het nu nog maar 19,8 procent in handen heeft, ten opzichte van 29,2 procent in het tweede kwartaal van 2009. AMD pakte juist marktaandeel en steeg van 18,2 naar 24,5 procent.Nvidia

Nvidia gaf eerder al te kennen dat het het zijn tweede fiscale kwartaal met een lagere omzet zal afsluiten dan eerder werd verwacht. De omzet zou tussen de 800 miljoen en 820 miljoen dollar komen te liggen, in plaats van tussen de 950 miljoen en 970 miljoen dollar. Nvidia geeft hogere geheugenprijzen en de slechte economie op als oorzaak, maar ook AMD's sterke DirectX 11-line-up zal een rol spelen, evenals Apples keuze om AMD-gpu's te gebruiken en het verdwijnen van Microsofts Kin-telefoon, waarvoor Nvidia's Tegra-soc werd gebruikt.

Moderatie-faq Wijzig weergave

Reacties (109)

Congrats ATI... Een redelijk te verwachtten uitkomst, na de 4 en 5000 serie. Al zie ik de komende tijd Nvidia nog wel wat terug komen met de 104 en 106 chips voor mid en low end.
Helaas heeft ATI besloten even rustig aan te doen en zal de release van de 6000 chip niet meer dan een opfrisser zijn van de 5000 serie. Niets spectaculairs dus... Geen verdubbeling van transistoren, geen verkleining van het productieprocess, maar niet meer dan wat hogere clocks... Valt mij een beetje tegen van ATI... Zet dan door en blow Nvidia away? Nu geven ze Nvidia alle ruimte om weer terug te komen.. Pas eind 2011 zal er weer een verkleining komen naar 28nm, mits TSMC en GLobal foundries de zaken op de rit krijgen. Dit om het 40nm fiasco te voorkomen.

Info 6000 serie:http://www.fudzilla.com/g...00-is-a-minor-improvement
info 28nm: http://www.fudzilla.com/g...aphics-comes-in-late-2011

Uiteindelijk maakt het mij niet zoveel uit.. Ik doe niet aan CFx of SLI, ik wil gewoon de snelste singlecore kaart, ik heb een 5870 versleten, en ben nu met mijn GTX480 bezig... Over beide kaarten ben ik zeer tevreden.. Al mag de GTX wel wat stiller worden met een Aftermarket koeler, dit had ik immers ook voor de 5870 gedaan.. Voorlopig voorzien dus, maar ik ben wel benieuwd hoe dit verhaaltje verder gaat.. Return of de greens?
Je hebt blijkbaar weinig verstand van GPU's en herhaalt de groene bril Fudzilla. Het word niet echt een minor improvement, ja het aantal SPU's gaat niet hard om hoog(480SPU=1920), maar de indeling word wel anders(4 way in plaats van 5), hierdoor gaat de efficiency per SPU een stuk om hoog(Het was heel lastig om die laatste shader processor aan het werk te houden). Ook word de SPU un-core, waardoor deze op een hogere snelheid kan draaien. Als je dat door rekent, kwamen wij op een theoretische snelheidswinst van meer dan 50% (*gebaseerd op de laatste geruchten).

Om daar maar een rooie bril tegen over te zetten: http://gathering.tweakers...message/34378400#34378400

[Reactie gewijzigd door Reinman op 30 juli 2010 09:42]

Het is misschien raar, maar zou AMD/Ati dit expres doen? Zodat ze niet Nvidia "wegblazen".
Kan me voorstellen dat het volgende scenario zich voltrekt als AMD wel met een volle lineup zou komen in Sept/Okt:
Nvidia komt met nieuwe serie, maar verliest aardig van AMD en zakt weg. Vindt Intel als maatje en de combi Intel/Nvidia ontstaat. AMD/Ati verliest een tegenstander, maar krijgt er een grote voor terug. Een combi Intel/Nvidia zou een goeden zet kunnen zijn. De nieuwe combi zet de aanval in en drukt AMD/Ati de komende jaren de markt uit. Eindresultaat is een eenzijdige markt waar wij als consumenten niet opwachten.

Ook de argumenten die jij aandraagt (millman) zijn waar. AMD/Ati kan met die verversing (nog) een slag slaan op het gebied van energie. Nu staat er volgens mij ook nog niet direct een nieuwe versie van DX12 op het programma (ik heb er nog niet van gehoord), wat meestal wel weer voor een nieuwe architectuur zorgt.
Een combi Intel/nVidia lijkt me zeer onwaarschijnlijk vanwege 3 redenen:

1. totaal verschillende bedrijfscultuur
2. het ego van nVidia (Intel zal dat alleen willen als ze nVidia goedkoop kunnen overnemen of anderzijds er veel winst uit halen, maar ik zie niet goed in wat het hen zou opleveren zonder overname)
3. ik betwijfel of dit toegestaan zou worden door de mededingingsautoriteiten van de EU en de VS
"ik heb een 5870 versleten"

Op 9 maanden? I smell BS.
Het is al jaren bekend dat nVidia ontwerpfilosofie niet met ATI mee kan. In het verleden had je de race om de grootste chip. Zo'n chip is moeilijk en duur te produceren, terwijl er niet veel kopers voor de 500 euro grafische kaarten zijn. Het was ook de gewoonte om de nieuwe features in dure gpu's te introduceren en na verloop van tijd sijpelt er wat naar de midend en lowend. Zo hoop je dat niet-gamers voor bv H.264 of MPEG-4 AVC versnelling een dure kaart kopen.

ATI veranderde hun strategie naar een middelgrote chip waarmee je 250 euro grafische kaarten kan produceren met alle toeters en bellen eraan. Het is gemakkelijker te produceren en gamers storten met grote aantallen op 250 euro of goedkopere kaarten die alle features aan boord hebben. Dat nVidia soms sneller gaat voor een dikke meerprijs is niet zo boeiend, als je slechts 250 euro ipv 500 euro voor een grafische kaart kan spenderen en je wilt niet een kaalgestripte kaart van nVidia. Om toch nog een snellere kaart te maken, gooit ATI gewoon 2 gpu's op een kaart.

Bij een procesverkleining naar bv 40 nm begint ATI met de vorige midend gpu te verkleinen, aanpassen om een 100 euro kaart (bv 4770) te maken. Het verbruikt minder, is koeler, goedkoper te produceren,... en ATI doet ervaring met bv 40 nm. Na enige trainingtijd begint ATI met een midend gpu te produceren. Hierdoor heeft ATI minder gezeik met productie tov nVidia's aanpak om direct met een zo groot mogelijke chip te bakken, terwijl oude gpu's van een nieuw etiketje voorzien worden (relabelen).

ATI doet veel moeite om de grote massa zo goed en goedkoop mogelijk te bedienen. nVidia probeert met veel kosten de prestatiekroon te claimen, terwijl de grote massa weinig in relabelen, verouderde en duurdere productie ziet.

[Reactie gewijzigd door rapture op 29 juli 2010 14:26]

ATI doet veel moeite om de grote massa zo goed en goedkoop mogelijk te bedienen. nVidia probeert met veel kosten de prestatiekroon te claimen, terwijl de grote massa weinig in relabelen, verouderde en duurdere productie ziet.
Terwijl de grote massa niet goed geïnformeerd is en veelal met open ogen in reclamecampagnes tuint zoals TWIMTBP (The Way It's Meant To Be Played) met interessante logo's bij het opstarten van je spel.

Hetzelfde geldt voor Intel Inside, blijf hard genoeg doordrammen en iedereen associeert spontaan Intel met het woord microprocessor. Of het nu goed is of niet, het is Intel en Intel is goed. Dan heb je nog de doelgroep die weloverwogen beslissingen neemt en blijkbaar is die een stuk gegroeid ten opzichte van de grote makke kudde ;)

[Reactie gewijzigd door Jejking op 29 juli 2010 14:33]

Hangt er van af wat je zoekt. Als je gewoon een desktop PC bouwt voor een of andere knul die zich tot de 99% mediocre gamers kan benoemen met een 1337-pc die ie hele maal zelf met stikstof koelt is het misschien van belang wat je noemt, maar voor de specialist maakt het merk (en soms de prijs) niet veel uit, als je een specifieke combinatie nodig hebt dan regel je die, als Intel, IBM of AMD dat levert maakt dat echt geen drol uit.
Tja, ik denk nog steeds dat het een kwestie van tijd is voor Intel Nvidia inlijft natuurlijk zijn de twee top mensen binnen de bedrijven elkaars vrienden niet in is dat de voornaamste reden dat een fusie nooit gelukt is maar als het zo doorgaat heeft Nvidia weinig keuze, en zullen ze gewoon uit de markt gedrukt worden door onze vrienden van Intel en AMD. Ik zou zo zeggen nu verkopen en pakken wat je pakken kan (had een paar jaar geleden veel meer geweest) of het hele grote risico lopen dat over ene paar jaar Nvidia de weg van Matrox gegaan is en Intel zijn neus zal ophalen voor een koop.

Intel heeft met hun GPU programma's al tijden lang eigenlijk niets anders gedaan dan achter de markt aan lopen en alleen omdat de meeste intel chipsets in economie segment een ingebouwde IGP hebben zijn ze nog steeds de best verkopende partij hier en dankzij de nieuwe CPU/GPU chips zullen ze dat voorlopig wel blijven ook maar de Intel oplossingen zijn verre van goed. Waar zowel Nvidia als AMD een IGP/GPU kunnen bouwen die vrijwel geen energie nodig heeft en toch 1080p kan af spelen en redelijk wat 3D kracht heeft ka Intel veel al net aan de 2D desktop tekenen en is eigenlijk alles daar boven op te vele gevraagd voor hun chips terwijl de dingen niet veel minder energie verslinden dan de chips van de concurrentie.
Voor Intel zou het heel erg goed zijn om Nvidia in handen te krijgen terwijl het voor Nvidia geen kwaad kan om weer eens een flinke nieuwe R&D injectie te krijgen en misschien een iets andere kijk op de ontwikkeling van chips die wel een redelijke prijs prestatie verhouding hebben en niet alleen met een kleine kolencentrale in de achtertuin de snelste van de wereld zijn...
Ik ben bang dat Intel Nvidia het niet mag overnemen ivm de monopolie positie dat ze dan krijgen. want als Intel nu al meer dan50% van het desktop markt bezit, dan hebben ze de complete markt in handen met Nvidea.
nVidia heeft over een jaartje 0% van de IGP markt, en Intel heeft 0% van de discrete videokaarten markt, dus dat zal wel loslopen.
Nvidia heeft zeker een dipje, maar het is voor het eerst dat ATI/AMD voor ligt, dan ge je nu toch niet al de handdoek in de ring gooien als nVidia zijnde? Ik denk dat Nvidia het prima gaat redden op eigen benen. Al lijkt het mij wel wat hoor, een Intel/nVidia combo.
Nou dat is toch een felicitatie waard, vindt het niet gek! Heb ooit eerder geroepen dat stilstand achteruitgang is, Nvidia is lang blijven hangen op DX10 en nu met DX11 doen ze dit weer (Nu is dit niet direct verklaring). Daarnaast hebben ze in eerste instantie flinke klappen gehad van de 4850 en de rest is history want daarna had AMD de smaak flink te pakken. Ik vind het gewoon geweldig, maar dat komt omdat ik wellicht een beetje AMD fan ben.

Ik denk dat Nvidia snel moet acteren anders zou het misschien nog wel eens over kunnen zijn over een jaar of 2
Zit em niet alleen in de DX ondersteuning, maar volgens mij voornamelijk omdat bijna alle kaarten in alle ranges van Ati of veel beter presteren, of veel zuiniger zijn, of gewoon prettiger voor de portemonnee. Welke prijs/prestatie range je ook pakte, (behalve de high-highend range), blies iedere kaart van Ati de Nvidia's weg, was het dus niet op prestatie dan verstookte de Ati zo'n beetje de helft minder aan energie of was gewoon simpelweg goedkoper, dus gewoon meer knal voor je knaken. Nvidia heeft eigenlijk pas voor het eerst sinds een jaar of 2 à 3 een echt concurrende kaart neergezet met de gtx460...

Maar iig, gefeliciteerd AMD/Ati, jullie hebben het zeker qua gpu's verdiend... goed bezig daar!

[Reactie gewijzigd door MicGlou op 29 juli 2010 14:28]

Inderdaad, Nvidia is veels te lang blijven doorgaan met de G80 architectuur die steeds weer werd uitgemolken. In die tijd hadden ze (net als ATi) allang met de volgende chipreeks bezig moeten zijn. ATi heeft dat netjes gedaan met de Cypress, en Nvidia heeft (gehaast?) een Fermi architectuur er doorheen gedrukt die nu veel warmte produceert en energie consumeert ten opzichte van de Cypress chip, die nagenoeg gelijk of beter presteert in sommige gevallen :).

[Reactie gewijzigd door __1337__ op 29 juli 2010 13:55]

Ik heb ooit een interview gezien over de ontwikkeling van grafische chips bij ati. Zij stelden dat het ongeveer 4 jaar duurt voor een architectuur klaar is om verkocht te worden.

Wat zij vooral doen is proberen de toekomst goed in te schatten en daar naar toe te ontwikkelen. Ik twijfel er niet aan dat het bij nvidia er net hetzelfde aan toe gaat en de 4000 reeks niet hadden zien aankomen.

ontopic: Dit had ik wel overigens verwacht, om het succes van de 4000 reeks kon men niet heen kijken. Het leek alsof er elke week een nieuw model werdt geïntroduceerd, bij wijze van spreken.

Van deze zaken gaat de consument natuurlijk enorm profiteren, hoe harder de concurrentie hoe scherper de prijzen worden. ;)
Jij neemt ten onrechte aan dat nVidia niet bezig is met nieuwe architecturen. Die komen niet uit de lucht vallen. Fermi heeft enkele jaren ontwikkeltijd gekost totaal. Uiteindelijk voldeed het niet volledig aan de verwachtingen, wat natuurlijk een flinke tegenslag was.

Je kunt ervanuit gaan dat ze nu al bezig zijn met de volgende en daarop volgende architecturen.

[Reactie gewijzigd door Bosmonster op 29 juli 2010 14:17]

Het grappige is dat Fermi aardig populair is bij supercomputers.
Maar ja, dat was niet de insteek van de ontwikkeling ervan ;)
Misschien uit nieuwsberichten dat je dat wil halen. Als je die zou volgen om een echt beeld te maken waren alle supercomputers 3jaar geleden farms van PS3's ^^
Alsof ati nooit aan het uitmelken is geweest, jaren geleden hebben ze dit nog gedaan met de 9000-x100 serie (als ik me niet sterk vergis :P) Nu was de g80 en de g92 helemaal geen slechte chip, maar juist hier had men een voorsprong kunnen nemen op ati met hun r600-rv670 serie zodat men nu een gelijke concurrent voor de rv870 had. De gf104 is dan de chip die aan die taak voldoet, ik hoop dat nvidia nu doorheeft dat ze geen monolitische chip nodig hebben om goed performance neer te zetten, ati doet precies hetzelfde, en dat gaat al 3 generaties prima. De gf100 presteert wel degelijk beter dan de cypress chip, maar kan niet concurreren op prijs en verbruik, dat is toch voor veel mensen een drempel daar ze dan meteen een nieuwe psu moeten aanschaffen om zo een kaart te draaien, al verkopen ze aardig goed als je rondkijkt op forums/user galleries enz. Het is lastig om op de rivaal in te spelen omdat het ontwikkelen van een chip al gauw 4 jaar in beslag neemt, misschien zelfs langer, dus vaak is het gokken, en hoog inzetten, ati heeft in die zin minder angst voor nvidia dan andersom geloof ik zo, of nvidia is te egoïstisch :).
en Nvidia heeft (gehaast?) een Fermi architectuur er doorheen gedrukt
Het gerucht is dat de opvolger van de G8x/9x niet aan de eisen bleek te voldoen en dat Nvidia daarom heeft besloten om een GPGPU chip die ze tegelijkertijd in ontwikkeling hadden voor de zakelijke mark te gebruiken voor de consumenten markt.

Dus ja, ik denk dat ze iets teveel gehaast hebben, aan de andere kant, hadden ze nog langer moeten wachten?

Ontopic:
Kijk dat is nog eens goed nieuws voor AMDATI en zodra ze met die fusion leveringen beginnen word het helemaal een feest.
Een bedrijf als nVidia gaat niet zomaar onderuit, naast de 'losse kaart verkoop' zijn er vele markten. ;)

Fusion gaat ook spannend worden. Als AMD dat goed voor elkaar heeft kunnen ze een flink marktaandeel van Intel afpakken.
eind dit jaar is het weer andersom aangezien de GTX 460 behoorlijk wat kont gaat schoppen de komende maanden, en ongetwijfeld zal een nieuwe GTX 470 en 480 onderweg zijn met fermi 104
als de g104 echt tractie krijgt in de markt hoeft ATI enkel de prijzen te verlagen.
de G104 is maar net iets kleiner 10% groter als de rv870, maar bij de hd5830 is bijna 1/3 van de chip uitgeschakeld. en ATI haalt uit die zelfde rv870 ook de hd5850 en hd5870 die de GTX460 helemaal weg blazen.

hoe je het ook went of keert, kijkend naar de productiekosten/prestaties loopt Nvidia gewoon flink achter op ATI, zelfs nadat de G104 hier een aardige verbetering in heeft gebracht.

[Reactie gewijzigd door Countess op 29 juli 2010 23:19]

De gf104 is ook nog niet volledig ingezet, als alle clusters zijn ingeschakeld en die chip dezelfde clocks als de 5870 krijgt, moet je eens kijken waar de performance heengaat. En het valt wel mee met dat wegblazen, het is zowieso 100 euro verschil, en de 5850 presteert niet veel beter dan een 460.

nvidia loopt inderdaad aardig achter, maar ati kan ook niet zomaar de prijzen omlaag gooien, de afnemers gaan dan zeuren over hun voorraad en dat kan geen enkel bedrijf gebruiken, de prijzen laten staan is de beste optie, kaarten verkopen toch wel.
de g104 is niet bedoeld om hoog te klokken(niet voor ontworpen), op de shaders na, die al veel hoger geklokt zijn als bij ATI.
de hd5850 heeft meer van de chip uitgeschakeld als de gtx460 maar wint er in bijna alle gevallen van.
de hd5850 wint soms met 25%, en als hij verlies is het minimaal. de hd5870 is weer een stuk sneller dus ja, weg blazen.

het verbruik van de gtx460 is nu al hoger als de hd5850 (11watt bij 768mb versie, 24watt voor de 1GB versie), met meer ingeschakeld en een hogere klok gaat dat verschil alleen maar groter worden.

en ik had het trouwens mis, de gf104 is 10% groter als de rv8xx/Cypress, niet kleiner.

die 100 euro is voor consumenten, niet de productie kosten. zoals gezegt ATI kan zijn prijzen gemakkelijk verlagen. (ik zie zelf maar ~50euro verschil met de 1GB versie trouwens of ~70 met de 768 versie, die het helemaal aflegt).

en ATI kan prima zijn prijzen verlagen, zij en hun afnemers hebben weinig op voorraad omdat ze pas net aan de vraag kunnen voldoen. daarbij had dat ~6 maanden geleden al moeten gebeuren, behalve dat nvidia niks in te brengen had.

[Reactie gewijzigd door Countess op 29 juli 2010 23:23]

Absoluut, maar misschien is er nog geen prijsverlaging nodig. ik heb gister nog een keer gekeken: de 9800GTX is ongeveer gelijk aan de 5670 qua prestaties, maar 5670 heeft voordelen als directX 11. en bovendien is de 5670 voor 80-85 euro bij azerty te koop, en de 9800GTX voor 130. bovendien was de fermi-100 ook geen goedkope chip, en een energieslurper, en het doel was met de hd5xxx high-end kaarten te concurreren. goed, de kaart heeft absoluut en zeker de beste prestaties van alle kaarten op het moment, maar is ook erg duur. bovendien zijn de prestaties t.o.v. de 5870 ongeveer 15% hoger, maar ook 30% duurder. in de pre-sales was dat zelfs 50%! bovendien verslaat de 5970 de GTX480 op bijna alle vlakken, van prestaties tot geluidsproductie.
kortom: Fermi is zeker een goede aanval op de HD5xxx, maar verslaat hem niet. verder is het een energieslurper en ben je met de 5970 nog steeds beter af qua prestaties en portomonnee, dus de aanval is niet volledig gelukt. en veel beter kunnen ze het niet meer maken: de TDP van 250Watt (wat overigens niet waar is, bij vol gebruik haalt de GTX480 meer dan 300 Watt) is gewoon te veel om twee chips op 1 kaart te zetten, dus een nieuwe aanval van nVIDIA met een dual-Fermi 100 kaart zit er voorlopig niet in (en komt er waarschijnlijk niet, de dag dat er 4 8-pins PCIe connectors op een kaart zitten...) dus het wordt waarschijnlijk wachten op de 32- of 28 nm structuur te komen. intussen neemt AMD verder de markt over met HD6xxx dus nVIDIA zal de komende maanden verder op de achtergrond komen te liggen.
Naast de dingen die de twee boven me al schrijven moet je ook niet vergeten dat AMD voor het einde van het jaar waarschijnlijk al met haar 6000 serie gaat komen. De kans dat Nvidia hier in korte tijd weer op terug komt is dus erg klein.
dit soort verschillen worden inderdaad niet uitgevochten op een reeks kaarten maar juist door de laatste jaren/reeksen. Nvidia is consistent de betere gpu bakker geweest TOT ATI kwam met de 4870x2 en opeens waren de rollen geheel anders.
Na een vrij lange relexte periode met de g80 architectuur moesten ze nu weer aan de bak om de ontwikkeling van ati bij te houden. Ze hadden wel de mogelijkheden om de snelste gpu te maken maar nog steeds bleven ze vasthouden aan de hoge prijzen, waarschijnlijk door hoge R & D kosten en de hoger wordende geheugenprijzen.
Toen de 5xxx reeks uitkwam die niet ALLEEN sneller en beter was maar ook nog eens het energieprobleem van de 4xxx reeks oploste bleef de te dure gtx reeks links liggen op een paar highend systemen na. Nu de laatste reeks het wel redelijk doet maar nog steeds te duur en te veel stroom verbruikt krijgt ati de betere naam en daarmee dus meer klanten. Over een paar jaar zal nvidia weer terugkomen. Dat is het mooie van concurrentie :)
Nvidia is consistent de betere gpu bakker geweest TOT ATI kwam met de 4870x2 en opeens waren de rollen geheel anders.
Nou ik dacht dat de 9800XT, X850XT en X1950XTX ATi kaarten sneller waren dan hun nVidia counterparts :?. Mijn oude Sapphire X850XT was igg sneller in de meeste games dan de 6800 Ultra van nVidia. Hoe het zat met de 7xxx en 8xxx van ATi weet ik niet.

Ik ben iig blij met dit nieuws. Hopelijk kunnen ze met de komende HD6xxx serie nog wat meer marktaandeel van nV afsnoepen. Dit zou een goede stimulatie kunnen zijn voor het gebruik van OpenCL voor physics ipv PhysX. Ook zouden we daardoor minder toestanden krijgen zoals bij Assassin's Creed en Batman denk ik :).
Ik ben bang dat ze je teleur gaan stellen. Het marktaandeel zit hem niet in de 460. Het grootste aandeel zit voornamelijk onderin. Die paar die een kaart van die klasse kopen zullen de markt niet bewegen hoor.
Afgezien van de laatste bug met onder andere Bad Company 2 maakt AMD/ATi gewoon goed spul. Beter dan NVidia. Ook de prijs voor een AMD/ATi kaart is gunstiger en de prijs is vaak doorslaggevend.
Het marktaandeel zit juist wél in de gtx460 als je het op losse vga markt bekijkt, de 470 en 480 zijn te duur, de 465 verkoopt wel aardig aan de leek, maar is ook nog behoorlijk aan de prijs, de 460 is goed geprijst en heeft top performance. Het is wel zo dat ati lager in de markt een goed aanbod heeft, daar laat nv nog een gat staan, en dx11 op een doos trekt al gauw mensen over de streep, ook termen als 2gb en andere marketingkreten doen het goed. Het ligt ook vaak aan de voorkeur van de afdelings inkoper wat er in het schap ligt, ik was laatst met iemand mee om een kaart te halen, en van nv lag er alleen een gt220, ati was 3x zoveel vertegenwoordigd, uiteindelijk een 5750 gehaald. Kaartje presteert prima, alleen was het beeld instellen nogal omslachtig, 3x systeemherstel kunnen doen, gelukkig werkt het nu zoals het hoort :)
Hier: http://store.steampowered.com/hwsurvey/videocard/ kun je zien waar de game markt zit, een beetje rond de 200euro kaarten zo te zien.
Wat de afdelings inkoper inkoopt is afhankelijk van het aanbod.

Als een GTX460 BIJVOORBEELD (weet niet hoe het in de praktijk is tussen deze 2) duurder is dan een HD5830 en de prestaties gelijk liggen gaat een inkoper geen GTX460 inkopen, want die verkoopt hij niet (snel) en zal hij voor de gamer die per sé die kaart wilt hebben deze op bestelling verkopen.
AMD/ATi is in het lagere/midden segment voor prijs/kwaliteit gunstiger. Vandaar dat er hoofdzakelijk AMD/ATi in de schap ligt van die winkel en een enkele goedkope NVidia kaart.

En het marktaandeel van de totale losse videokaart verkoop zit hem echt niet in de top hoor... die zit gewoon in het lagere segment... op dit moment lopen de HD54xx en HD55xx goed.
De doorsnee computer gebruiker die er wat bij gamed koopt echt geen GTX460 / HD58xx en die groep is 'iets' groter dan de die-hard gamers. De sims is prima te spelen op een HD54xx
Ook is het voor de lokale PC boer helemaal niet rendabel om kaarten van dat formaat in voorraad te hebben.

P.S. ik ben ook inkoper.
idd,een mooi voorbeeld daarvan is de ati 5770,die kaart heeft een enorm goede verkoop gehad (k heb er zelf ook een :9 )
Klopt, voor 100~150 euro heb je een pracht kaartje. (Heb er zelf ook een.)
de 56xx en 57xx zijn voor betaalbare prijzen veel performance.
blijft niet voorlang denk ik, op forums kom ik veel tegen dat mensen gtx 470/480 en hd5870/hd5970 verkopen voor 2x gtx 460 en daar de shit uit océn, en word misschien wel iets btr met gf106 ookal zijn die mainstream, en mensen hebben ut over hd6000 serie maar die moet zich eerst nog bewijzen,

maar alsnog mooie prestatie van amd/ati, nu nog price drop voor de gene die ati wil hebben
Volgens mij gaat dat echt niet harder als 2xHD5850 OC'ed maargoed :P
Laat staan als een HD5970 (OC'ed)...

Prijs is ongeveer gelijk dus ik zie niet in waarom iemand dat wil en wel meer verbruik (en dus wss meer herrie) krijgt maar geen extra performance...
2x GTX460 sli is Iets langzamer dan een HD5970, maar ook meteen €150 goedkoper. Eigenlijk is dat de strategie van ATI. Iets langzamer en stukken goedkoper. Laten we niet ontkennen dat de GTX460 flink bang 4 buck zijn, meer dan de 5850's als je het mij vraagt.
Met een sli schaling van bijna 90% hebben ze bij Nvidia de drivers iig prima in orde!
buiten het feit dat de 460 goedkoper is dan de 5850 is bijna geen enkele game dat de 460 sneller is behalve dan in de ene of andere dat heel duidelijk nvidia minded is dus al bij al is de 5850 nog steeds de beter kaart, alleen iets te duur momenteel tov de 460
wou net zeggen, denk maar niet dat ATI blijft stil zitten, nvidia heeft nu eindeiljk een chip uitgebracht waar de normale consumen wat aan heeft (GTX460). Maar de ATi kaarten zijn dadelijk al weer een jaar oud
die SLI markt is erg klein dus daar is ATI niet zo bang voor, de hd5830 kan gemakkelijk in prijs worden verlaagt(makkelijker als de gtx460) en het grootste marktaandeel komt uit de OEM markt waar SLI praktische niet voor komt

zelfs als de gtx460 echt martkaandeel terug gaat verdienen(en dat betwijfel ik want de markt voor de gtx460 is niet zo groot aangezien hij rond de 200 is) dan verlaagt ATI de prijzen(en dat kan gemakkelijk want hun chip is even groot als de gtx460, maar hier word wel ook de hd5870 uit gehaald)
en zelfs als ze dat niet doen is ATI al aardig ver met hun volgende generatie kaarten (die weleens waar niet echt revolutionair gaan zijn omdat ze ook op 40nm worden gemaakt (aangezien 32nm is gecanceld) maar wel weer een stukje sneller zijn)

sorry maar ik zie weinig positiefs voor Nvidia in de nabije toekomst.

[Reactie gewijzigd door Countess op 29 juli 2010 15:00]

Zo slecht gaat het dus nog helemaal niet met nVidia. 49% markt aandeel van losse videokaarten.
En het was 51% en daarvoor nog meer. De neerwaartse trend is slecht.

Hoeveel je hebt maakt in se weinig uit. Als je marktaandeel zakt, daalt het aantal klanten. En je omzet. En mogelijk ook je winst. Minder winst, minder R&D budget. En plots staat de deurwaarder aan je deur om de meubelen op te eisen. Snappie? ;)
Marktaandeel zegt niet zo veel over geld. 100 ATI's/AMD's van €90 vs 75 Nvidia's van €190 en dan heb je opeens cijfers die wat zeggen.
Obviously is er iets mis met de prijzen en/of producten als je marktaandeel zakt. Dus als je marktaandeel zakt, is het nog maar de vraag of je er van uit mag gaan dat je die 75 nVidia's tegen die prijs verkocht krijgt.
het grootste deel daarvan bij nvidia zijn oudere generatie kaarten. ATI heeft duidelijk de midrange en highend markt in handen.
maar de budget markt is qua aantallen gewoon een veel grotere markt.
ATI ontwikkeld ook door op hun oude chip, 3xxx en 4xxx waren ook hetzelfde enige verschil met nvidia is dat er bij ATI een groot verschil in performance zat. Nvidia veranderde naam, verhoogde de snelheid met 100mhz en maakte de chip iets zuiniger. Het is niet erg om iets te finetunen, als het nieuwe product maar een toegevoegde waarde heeft. En dat hadden die kaarten van nvidia niet toen der tijd. En als je dan ook nog eens bijna 2x zo duur bent tja, Ego noemen ze dat.

ATI moet met wat meer APPLE like marketing komen, ze moeten een hype creeren zodat een gebruiker die niks van computers weet denkt dat ATI kaarten allemaal goed zijn. nu heeft Nvidia dat jammer genoeg nog steeds, er bestaan nog steeds mensen die in de jaren 90 1x een verkeerde ATI kaart hebben gehad waar de drivers niet optimaal voor waren in het begin, en daardoor nu Nvidia blijven spekken.
Ik moet je eerlijk zeggen, ik heb 1,5 jaar een HD4870 gehad en heb echt heel vaak de error message "catalist driver has stoped responding and has been succesfully recoverd". Sinds begin dit jaar ben ik over naar 2 GTX260's en heb vervolgens nooit weer die error gehad tijdens het gamen (iets waar je toch dit soort kaarten voor koopt). Maargoed, beetje concurrentie is nooit verkeerd.
lag toch echt aan jouw.
hoewel ik ze in het begin wel eens heb gezien is de laatste keer bijna een jaar terug, en mijn kaart staat continue folding@home te doen als ik niet aan het gamen ben.
ATI ontwikkeld ook door op hun oude chip, 3xxx en 4xxx waren ook hetzelfde enige verschil met nvidia is dat er bij ATI een groot verschil in performance zat.
Vergeet niet dat AMD/ATi met de HD2000 serie al een geheel nieuw architectuur heeft neergezet, waar Nvidia dit met de fermi architectuur gedaan heeft. De HD2000 serie liep in eerste instantie ook niet zoals verwacht, maar ATi wist met de HD3000 en HD4000 de architectuur wel op orde te krijgen, waar Nvidia nog grote moeite mee heeft met hun fermi architectuur.

Daarnaast zal Nvidia nu ook behoorlijk afgestraft zijn door hun handelen in het geval van de productie fouten in de G82, G84 en G92 (mobile) en de 8800 serie die na goed twee jaar bij bosjes dood gaan, hiermee zowel cosnument als oem partners in de koude laten staan. Hier heeft Nvidia (helaas) nooit fatsoenlijk op gereageerd.

[Reactie gewijzigd door _Dune_ op 30 juli 2010 10:08]

Nette prestatie van AMD. Gezien zij ook voor het eerst dit gehele FY hun eerste kwartaalwinst hebben geboekt met de ATi divisie. Zal het ATi dan eindelijk lukken om winstgevend te worden? :)
ATI, de grafische tak van AMD, was altijd al winstgevend, het is de CPU-tak van AMD die het moeilijk heeft.

Ik denk dat ATI overnemen het beste is wat AMD ooit gedaan heeft, anders zie ik niet hoe ze de laatste paar moeilijke jaren hadden doorgekomen :) Momenteel ziet het er ook erg rooskleutig uit: als je kijkt naar prijs/prestatie is AMD gewoonweg koning, waardoor ze een groot deel van de enthousiast-markt inpikken van Intel/nVidia.

Ik begrijp echter neit dat mensen zo ahrd aan Intel blijven vasthouden: Intel met zn dure Core i5/7 reeks is dan wel beter dan de PhenomII-lijn: het belachelijke prijsverschil is niet te verantwoorden, zeker neit in dit economische klimaat. En het wordt al helemaal belachelijk als je de prijzen van hun chipsets ziet.

nVidia schijnt dan weer nog steeds te denken dat we 2006 zijn, toen de G80 serie net uit was en ATI gewoon geen redelijk alternatief had: sindsdien heeft nVidia steevast te hoge prijzen, en hebben ze qua inovatie bijna niks gepresteerd! de GTX200 serie was gewoon een grotere, hetere versie van G80, en Fermi is al helemaal een flop voor wie geen triljard euro wil neertellen voor een kaart die meer gebruikt dan een kleine microgolfoven...

[Reactie gewijzigd door kiang op 30 juli 2010 12:04]

Daarvoor was AMD bijna een decennium lang niet winstgevend, nu klinkt het alsof dat door de overname van ATi was.
AMD schreef geen winst bij maar ze ware zeker wel winst gevend.
al dat geld hebben ze echter meteen terug in zichzelf terug geïnvesteerd ipv op de bankrekening te zetten.
ze hebben bijvoorbeeld een 2de fabriek bij gebouwd, ATI gekocht, een dure overgang naar 300mm waters gemaakt en ondanks een veel kleinere omzet wel in de beurt van intel gebleven technologische gezien, en ze 3 keer voorbij gestreefd met goede cpu ontwerpen (ondanks een productie proces achterstand).
en dat alles terwijl intel er alles aan deed om AMD uit de markt te drukken en daar geen minder legale en gewoon illegale manieren voor schuwde.

global foundries heeft ze nu bevrijd van het grootste deel van de kosten, en global foundries kan die kosten spreiden over veel meer klanten.

[Reactie gewijzigd door Countess op 30 juli 2010 18:32]

Nvidia is niet echt bereid om goed te investering in ondersteuning, denk ook dat dat zeker zal meespelen. Een hele tijd was de ondersteuning van Nvidia kaarten in Linux bijvoorbeeld gewoon vér onder de maat. Ook valt mij vaak op dat de prijs/kwaliteitsverhoudingen bij Nvidia (gemeten aan de AMD-kaarten) wat scheef hangen. Zeker nu Mac overstapt op AMD is, met hun marktaandeel en zeer loyale afnemers, dat een klap voor Nvidia.

Één opmerking wil ik hierbij nog wel maken: Die nieuwe kaarten van Nvidia, volgens mij de GTX 460 die hier op tweakers laatst werd getest, kunnen de vergelijking met de AMD-kaarten wél weer doorstaan. Maar misschien is dit een gevalletje van to-little-to-late.
Ik weet niet wat je bedoelt met 'vér onder de maat'. Het is waar dat nVidia altijd closed source drivers publiceerde voor zijn kaarten en dat de open source gemeenschap dat liever niet ziet. Maar deze drivers werken de laatste 5 jaar al wel gewoon goed.
Deze drivers ondersteunen in linux zelfs VDPAU (video decoding op de GPU) en een hele hoop functionaliteit.

In tegenstelling tot de ATI drivers, die dan wel open source waren, maar slechts een klein deel van het kaartenaanbod ondersteunden, vaak met beperkte functionaliteit. Hier is recent ook wel verbetering in aan het komen.

Ik heb liever iets dat goed werkt dan iets dat open source is, maar dat is een persoonlijke afweging.
Geen zorgen. De miljoenen programmeurs die alles gratis in hun vrije tijd coderen lossen dat op voor de os community hoor.
Too little too late. Inderdaad. Nieuwe serie van AMD staat alweer om de hoek te wachten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True