Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: X-bit Labs

Uit een recent onderzoek van Mercury Research is gebleken dat het verschil in marktaandeel tussen ATi en nVidia kleiner aan het worden is. Dit komt doordat nVidia op alle grafische marktgebieden aan het groeien is. Voor ATi geldt het omgekeerde, waar het bedrijf een leidende positie heeft, ziet het zijn aandeel dalen. Over het geheel gezien doen beide bedrijven naast marktleider Intel het wel goed, omdat elk bedrijf zijn omzet en afzet heeft zien stijgen.

nVidia logoZoals de afgelopen periode al vaker heeft laten zien, groeit de afzet van notebooks sneller dan die van desktops, zowel bij de geïntegreerde videokaarten als de losse. Dat wil niet zeggen dat de verkoop van losse videokaarten in het vierde kwartaal gekelderd is, zowel ATi als nVidia hebben geprofiteerd van de dertien procent groei ten opzichte van het derde kwartaal.

Marktleider Intel heeft zijn positie zonder problemen kunnen vasthouden, voornamelijk dankzij de groeiende afzet van notebooks met een geïntegreerde videokaart (Centrino en inmiddels Sonoma), terwijl ATi op zevenentwintig procent van de totale markt is blijven steken. nVidia heeft zoals gezegd wel een uitstekend vierde kwartaal meegemaakt en zag zijn marktaandeel met drie procent stijgen naar achttien procent.

ATi logo (klein)Een van de redenen dat ATi geen marktaandeel heeft kunnen winnen, moet gezocht worden bij de productieproblemen. Specifiek de problemen met het low-k procédé, waardoor ATi niet aan de vraag kon voldoen. Dit heeft ook te maken met de 0,13 micron wafers, aangezien er hierdoor te weinig volume gedraaid kan worden. Vandaar dat het bedrijf het komende kwartaal versneld zal overstappen naar 110 nanometer-procédé en misschien zelfs naar het 90nm-productieproces.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (49)

@die laatste paar, geen fanboy zooi maken jongens!
6800GT en x800pro scheelt vier pixelpipelines (zeg maar een 9600/5700 :P)

OpenGL, weet iemand een beter voorbeeld van een nieuw spel gebaseerd op OpenGL...en zeg niet CoD of Elite Force 2, die zijn beide gebaseerd op Quake 3 engine....

Ati kan gewoon alleen drivers voor M$ dingen maken, DirectX, Windows.......

Verder, noem PCI-Express NOOIT pci-x, want dat is iets anders, noem het pci-e.

Helaas verpesten idd optimizations alle soorten verglijkingen die wij kunnen maken. Beide bedrijven doen eraan, laten wij er niet over beginnen.

Doom3 is niet nvidia optimized, het heeft gewoon erg veel shaduw effecten en texture lookups, het laaste zorgt ervoor dat FX series weer een beetje kans maakt, de schaduw effecten worden gewoon niet bepaalt snel uitgerekent op een Ati kaart. Ligt niet aan ID, ligt aan Ati.

Wat betreft HF2, GeForce FX series bakken daar idd niet veel van, maar wederom, is het echt Valves schuld? Dat ze iets braks hebben gemaakt is duidelijk, maar of ze opzettelijk nvidia wilden benadelen, ik weet het niet.

Beide bedrijven hadden problemen met levering, Ati met alles, en nvidia moet zijn PCI-E 6800u's nog ff op orde brengen. Het is nu eenmaal de GPU oorlog.
Fijn dat je alles even helder neer zet, zeker dat PCI-X stoor ik me ook enorm aan.

Maar, DOOM3 is weldegelijk geoptimaliseerd voor de nV cores, noormaal gesproken zou Carmack zijn engine optimaliseren voor alle grote graphical core producenten, dus ook voor ATI, maar door conflikten tussen Carmack en ATI is dat deze keer niet gebeurt, het had zelfs niet veel gescheeld en ATI kaarten waren helemaal niet gesuporte in de DOOM3 engine. op dat gebied is Carmack net een klein kind en kunnen we van geluk spreken.
@t jan groothuijse,
"Doom3 is niet nvidia optimized"
Onder welke steen heb jij gezeten, er zijn zelfs screenshots geweest waarin expliciet te zien is dat nvidia word voorgetrokken in Doom3. Hetzelfde geld voor ati met farcry. Ga voor de gein s naar www.ati.com en ze maken er zelfs recrame voor dat ze samen met farcry team bezig zijn om t te optimizen.
Ten 2e ben ik geen fanboy want vanaf ik heb alle kaarten van nvidia gehad van tnt tot en met gforce4 4200. Toen kwam de fx serie erin in die is gewoon bagger dus ben ik overgestapt naar ati (9700pro).
De reden dat ik nu een x800pro heb is dat dat de 1e kaart was waar ik me vingers op kon krijgen. De GT was gewoon nergens in voorraad. Voor zover ik t kan zien zijn de GT en de x800pro gelijkwaardig qua prestaties. Er zijn her en der wat kleine verschillen, maar niet zo dramatisch als met Doom3, en die verschillen hebben niks met de hardware te maken.
Het zal waarschijnlijk niet een heel grote invloed zijn, gezien het geringe marktaandeel, maar Linux gebruikers kiezen vrijwel allemaal voor NVidia, omdat de driversupport echt 10 keer beter is dan bij ATi.
In de toekomst zal deze invloed alleen maar groter worden.
Tenzij natuurlijk ATI betere drivers gaat maken toch?
Nou, Ati heeft bij mij voorgoed afgedaan. En ik denk dat vele Linux gebruikers (en zeker de 64bitters) daar ook zo over denken.

Sterker nog, lees bv het Gentoo forum maar eens door. Weinigen hebben een goed woord over voor Ati.

De 9800pro was mijn enige foute uitstapje sinds ik zelf mn pc's samenstel. nVidia heeft zichzelf onsterfelijk gemaakt bij mij.
Da's natuurlijk mogelijk, maar niet iets dat zomaar in korte tijd kan gedaan worden. ATI heeft heel wat in te halen, en terzelfdertijd staat NVIDIA niet stil he. Ze zouden dus hun team Linux-programmeurs niet moeten verdubbelen maar vervierdubbelen bij wijze van spreken. Voldoende programmeurs vinden met de nodige expertise is echter niet triviaal.
Wil je een agp beeldkaart kopen rond de 220¤ dan ben je verplicht om bij nVidia te gaan. ATI heeft enkel de 9800pro maar die is moeilijk te vinden en toch al wel verouderd. Je moet dus al een pci-X beeldkaart kopen (de X700pro) Aangezien AMD moederborden enkel zo'n sloten hebben bij de socket 939 en deze redelijk duur zijn ben je al min of meer verplicht om naar Intel over te stappen. Maar aangezien veel gamers voor AMD kiezen denk ik dat velen dan maar kiezen voor een nVidia beeldkaart, hierdoor verliest ATI dus veel marktaandeel.
er zijn ook socket 939 mobos met een AGP slot.
wel geen Nforce 4 maar wel nforce bv.

duur is socket 939 ook niet wel als je voor duurdere SLI mobos gaat maar duurder dan evenwaardige Intel 775 mobos zijn ze niet.

CPUs idem.
Mijn punt was niet dat 939 mobo's geen agp slot hebben maar dat als je per sé een AMD systeem wilt met een ATI beeldkaart van ongeveer 220¤ je verplicht bent om een X700pro beeldkaart te nemen waarvoor je dus een socket 939 mobo nodig moet hebben.

Als je dan kijkt dat het goedkoopste 939 mobo mét PCI-X sloten op 141¤ kost dan is dit wel een serieuze hoop extra als je maar van plan waart om een socket 754mobo van pakweg 75¤ te kopen. Dan heb je 2 keuzes, of je koopt Intel die hebben al PCI-X mobo's vanaf 75¤ of je koopt een nVidia beeldkaart op een AMD systeem, bijvoorbeeld de 6600GT.

939 mobo's beginnen in mijn pc shop vanaf 111¤ terwijl socket 754 mobo's vanaf 71¤ beginnen dus vindt dit wel een groot prijsverschil.
Mijn punt was niet dat 939 mobo's geen agp slot hebben maar dat als je per sé een AMD systeem wilt met een ATI beeldkaart van ongeveer 220¤ je verplicht bent om een X700pro beeldkaart te nemen waarvoor je dus een socket 939 mobo nodig moet hebben.
Als je een gamerskaart koopt (wat de X700pro toch echt wel is) dan koop je ws. ook wel een S939 mobo, aangezien dee ook dual channel heeft ed.

Bovendien is het volgens mij niet zo heel erg moeilijk om nog een Radeon 9800 ofzoiets te kopen.
Aangezien dual channel in de praktijk bij AMD geen voordeel oplevert zou ik niet weten waarom je een S939 zou kopen.

Ik zat bv in december een 3400+/3500+ te zoeken en dan was de S754 oplossing gewoon even snel, (ook voor games) maar ondertussen maar 2/3 van de prijs van S939.

Als geld geen rol speelt, dan kun je natuurlijk voor S939 gaan, maar dan koop je ook wel een X800
idd, zou leuk zijn, maar wa d8ten jullie van de masalen verkoop van 6800le voor 200 euro die dingen waren nie aan te slepen (mede door rivatuner ;))
Zijn er dan al 'losse' videokaarten voor laptops te verkijgen?
bij sommige laptop kan dat.


mijn acer 1705 sci kan dat....

zou best op termijn mijn geforce 5600 64 mb willen vervangen voor wat snellers.
De desktop P4 3.0 512mb , desktop HD is best aardig om te gamen ,
In heel veel laptop kan dat al, alleen is het niet zo makkelijk als in een nomale pc.
Maar mijn Dell 8600 kan het ook 3 schroefjes los, klepje open, en videokaart er uit, nieuwe er in.

http://www.tweakers.net/nieuws/35943

Zie tweede reactie
Ligt het nu aan mij of staat Intel aangeduid als marktleider van de grafische kaarten? Kan ik me eigenlijk niet voorstellen. Ik ken niemand, op de mensen na die een geintegreerde Intel "Extreme" Graphics hebben, die een Intel kaart heeft. En die zie ik nu net niet als Grafische kaarten, want meer dan een desktop op het scherm toveren kunnen ze niet.
Ik heb uit ellende maar een TNT2 kaart ingebouwd in mijn server, want van die geintegreerde onzin, werd ik gek.
De meeste pc's gaan nog altijd naar bedrijven/kantoren. Die hebben geen reet aan fancy GPU's. Die systemen hebben vaak een simpel Intel chipsetje, goed genoeg voor op kantoor.
Inderdaad. Zo hebben de goedkopere Dell dozen bijv. ook Intel (integrated) graphics.

Volgens mij voldoet in principe voor kantoorwerk trouwens een 4 MB PCI kaartje uit 1999 nog steeds, maar goed.
Dit heeft ook te maken met de 0,13 micron wafers, aangezien er hierdoor te weinig volume gedraaid kan worden. Vandaar dat het bedrijf het komende kwartaal versneld zal overstappen naar 110 nanometer-procédé en misschien zelfs naar het 90nm-productieproces.
Dat snap ik niet.
Ze hebben dus problemen met de 0.13 micron technologie, en stappen daarom SNELLER over op een NOG kleiner formaat?
Het zit em in de wafers die ze voor low-k amper geleverd kunnen krijgen. Dus verkleinen levert meer cores op bij dezelfde hoeveelheid wafers.

Overigens is ATI ook bezig met high-k om de problemen het hoofd te bieden. Die core krijgt een ander nummer en zou 50Mhz sneller gaan worden maar is in feite hetzelfde ontwerp.

Maar het is goed om te horen dat de beide kemphanen zo lekker bezig zijn dat kan alleen maar voordeel voor ons opleveren.
Dit heeft ook te maken met de 0,13 micron wafers
mmm nee met waffers van 0.13micron diameter zal de productie idd niet erg groot zijn... :Z
ik vermoed dat hier iets anders moet staat of het anders verwoord moet worden.
1 core per wafer is inderdaad wel weinig. Dat verklaard inderdaad wel waarom ze problemen hebben met de productie. ;) :P
Het verkleinen van de core naar 0,11 of 0,09 heeft dan alsnog geen impact.
Er past er nog steeds maar 1 op de 0.13 micron wafers. :*)

Ontopic:
Ik heb ook liever nVidia. Ik vind ze veel sterker in hun driver support. Zeker voor andere OS-en. De FX serie was gewoon een beetje jammer voor nVidia, maar met de 6 serie hebben ze gewoon weer terein terug gewonnen
Ook nVidia heeft net als ATI productie problemen hoor.
De core is niet 0.13 micron, 0.09 micron of 0.11 micron of whatever. De transistor is 0.13 microns lang, maar niet de hele core. Dat zou me wat zijn want dan konden er een hoop transistors op 1 300mm wafer. De core grootte zelf beslaat meestal zo'n 1 bij 1cm, en bij enorme chips zoals de 6800Ultra (222 miljoen transistors) zo'n dikke 1,5 bij 1,5 centimeter.
Om nog even terug te komen op het linuxverhaal. Ik kan me voorstellen dat nVidia populairder is. Linux ondersteunt geen Direct3D, dat is namelijk van Microsoft. Dus blijft OpenGL over. En kijk dan eens naar de performance van Doom3 (OpenGL game), daarin kan een 6800 non GT/Ultra een X800 Pro makkelijk bijhouden. Ofwel, voor al het 3D werk in Linux is een nVidia chip sneller.
Waarom halen mensen altijd doom3 aan als t over opengl gaat? Tis gewoon een feit dat id-software de code heeft geoptimaliseerd voor nvidia.
Dus om doom3 nu een betrouwbare bench te noemen voor opengl, nou nee. Zelfde geld ook weer voor farcry en halflife 2 die weer ati optimized zijn.
Op basis van deze games kun je geen conclusies trekken en zul je echt onafhankelijke benches moeten gaan draaien.
Voor zover ik t kan zien zit er tussen de 6800GT en de x800PRO niet zoveel verschil.
Het gaat hier ook niet om de kwaliteit van de kaarten maar van de drivers. Zoek elke benchmark die je wil over openGL en je zult zien dat vrijwel in elke bench de nvidiakaarten sneller zijn. Direct3D is een heel ander verhaal, naar mijn mening zijn ze beiden net zo snel afgezien van optimalisaties aan (game)engines of drivers. ;)
Das een heel ander verhaal in je vorige post pak je specifiek doom3 voor performancevergelijk en das t.o.v. ATI niet eerlijk. Wat dat betreft heeft ati zn directx drivers weer beter voor elkaar.
Maar hoeveel heb je nu precies aan een gforce 6800 ultra onder linux? Niet als flame bedoelt maar t is een feit dat de meeste spellen geen linux ondersteuning hebben. Als je echt iets aan je ubervideokaart wilt hebben (x800xt-pe of 6800ultra)
zul je toch echt t windowsplatform moeten gebruiken (helaas)
@Dizzyman
Kijk in elke benchmark die je wil over openGL, en je zult zien dat de Doom3 scores niet representatief zijn voor de scores in OpenGL in het algemeen.

In normale OpenGL spellen wint Nvidia vaak, maar altijd maar met kleine verschillen.

In Doom3 wint Nvidia met grote verschillen omdat het speciaal voor Nvidia kaarten geoptimaliseerd.
Overigens heeft ATI de meest ATI-onvriendelijke delen van de Doom3 code al kunnen omzeilen en is het gat niet groot meer met de recente drivers.
Linux ondersteunt geen Direct3D, dat is namelijk van Microsoft. Dus blijft OpenGL over
Het is zelfs nog veel simpeler.. NVidia's drivers werken, die van ATI laten je hele machine vastlopen.. :P

OpenGL is verder IMHO the way to go, het is veel stabieler, het heeft alleen wat meer tijd nodig omdat OpenGL afhankelijker is van de hardware support. Direct3D laat de programmeur zelf het geheugen beheren, waardoor het idd sneller is, maar ook instabiel. Plus dat je met OpenGL een applicatie kan maken die overal werkt.
Heb je ook enige onderbouwing voor je bewering dat OpenGL stabieler is dan D3D?

In de praktijk merk ik totaal geen verschil.

Ik merk wel dat sommige bedrijven altijd buggy code opleveren en sommige altijd stabiele code leveren.
@mjtdevries, je bent weer lekker bezig vandaag met je fanboy gedrag :z
Als je nou ook een foute info over Ati eens zou bestrijden met al je kennis, kwam je nog neutraal over . Het enige wat jij toevoegd is vaak een directe flamewar. Leer het nou eens, of geef op z'n minst eens toe.
De pot verwijt de ketel !!

Wat is er nou in godsnaam fanboy gedrag aan het vaststellen dat je geen enkel verschil merkt in de stabiliteit van OpenGL en D3D?

Het heeft GEEN ENKEL verband met Nvidia of ATI.

Opvallend hoe het altijd de mensen met fanboy gedrag zijn, die juist anderen er van beschuldigen!
Nee, jij bent de enige met zwaar fanboy gedrag en jij vindt dat iedereen het is, maar jij doet het nooit en te nimmer (jouw denkwijze).
Mijn reactie is een algemene reactie op elke post die je in dit topic hebt geplaatst. Alleen maar kritiek en flames over nvidia, meer doe je niet.(net als elk ander bericht over nvidia)
Hoeveel keer moeten ik en andere je hier op wijzen dat je subjectief bent, en zelf met partijdige al dan niet fanboy links etc komt.
Je bent gewoon te koppig om zelf ook eens in te zien dat je fanboy suprème bent.Jij beschuldigt constant de rest terwijl je zelf zwaar naar 1 partij leunt.
@mjtdevries: Jij hebt je mening gegeven maar om nu iedereen die jouw tegenspreekt ineens een nvidia fanboy te noemen is wel erg laag bij de vloers. Niet dat anderen jouw ineens Ati fanboy mogen noemen maar dat is wel duidelijk geworden na je andere reacties. Jij hebt je mening gegeven, anderen waren het daarmee niet eens. Boeiend ! :7
Ik weet niet of je persoonlijke ervaring hebt met het zoeken van een fatsoenlijke nieuwe videokaart de afgelopen maanden, maar ik wilde dolgraag een Ati. Nopes in AGP. En velen zijn met mij. En om je even gerust te stellen, over een jaartje zal Nvidia zijn PCI-E kaarten vast nog niet kunnen aanslepen waardoor Ati weer zal bloeien :P
@dinkelover.
Als je nou eerst eens de thread goed leest, want wat jij beweert klopt gewoon niet.

Het is helemaal niet zo dat ik mensen die een andere mening hebben meteen een fanboy noem. Het is juist sjekneck die dat doet.
Ik geef mijn mening, en de enige reactie is van sjekneck die mij onmiddellijk een fanboy noemt en verder geen reactie geeft op mijn mening.

Gelukkig zijn er ook mensen in deze thread (itt jullie twee) die wel normaal kunnen reageren als een mening gegeven wordt, zoals bv GF-Annihilator & c0d1f1ed. En daar kan dan ook een normale discussie uit volgen.
Voor iemand die objectief de threads nog een keer leest is duidelijk wie hier daadwerkelijk de fanboys zijn! En daar laat ik het verder bij.
Komt vooral door de goeje 6600GT in het mid segment bij nvidia.
De ati's zijn voor het moment veel te duur, en als je prestatie voor je geld wilt heb je enkel maar de keuze voor een nvidia kaart.
Zelfs de 6800 GT met 128 mb zit close bij de x800pro en hoger, voor een veel lagere prijs

In de mobiele markt prefereer ik dan weer de ati kaartjes.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True