Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: X-bit Labs

Op X-bit Labs kunnen we lezen over een onderzoek van Mercury Research waaruit blijkt dat nVidia zijn positie in de DirectX 9.0-markt heeft versterkt. In het laatste kwartaal van 2004 had nVidia maar liefst 67% van de markt in handen voor high-end grafische processors. In het middensegment had het bedrijf uit de Verenigde Staten 53% marktaandeel. nVidia heeft hiermee zijn positie in beide segmenten verbeterd ten opzichte van het kwartaal ervoor. In het derde kwartaal van 2004 had nVidia respectievelijk 64% en 51% marktaandeel.

X-bit Labs vraagt zich echter af in hoeverre de cijfers correct zijn. Mercury Research telt namelijk elke grafische processor met meer dan 100 miljoen transistors als high-end. Dit betekent dat de GeForce 6200 ook meedoet als high-end processor. Intel blijft trouwens marktleider als er gekeken wordt naar de totale verkoop van grafische chips. Als geïntegreerde grafische processors niet worden meegerekend, dan is het ATi dat met 51% marktaandeel aan kop gaat. In het laptopsegment heeft ATi maar liefst 72% marktaandeel.

nVidia kantoor (kleiner)
Moderatie-faq Wijzig weergave

Reacties (34)

imho heeft nvidia dan ook snel lessen getrokken uit de Geforce 5-serie. De 6-serie staat als een boom en kan meer dan concurreren met de ATi X-reeks.
In dit marktsegment blijkt toch steeds weer dat de consument echt voor de rauwe prestaties kiest, en zelden merkgebonden is.
Ook SLI is iets wat de high-end gebruiker niet koud laat, al is het maar door de bijkomende upgrade mogelijkheden :)
Over die stijging van 3 en 2% kan ik niets nuttigs melden.

Over die 6200 wel. De cijfers kloppen niet.
Op de 6200 zit een chip die ook op de 6600 zit maar dan begrenst is. Dus het aantal transistors is gelijk, alleen wordt slechts de helft gebruikt.

Een beetje raar nieuwsbericht en een beetje raar onderzoek als je ervan uitgaat dat een GPU high-end is bij >100 miljoen transistor. |:(
Het is tijd dat ze de criteria bijstellen dus; een 6200 is tegenwoordig allang geen high-end meer. 6600 GT misschien nog net, maar eerder een 6800 (in sli opstelling natuurlijk :P).

En hoe lijkt het in Europa met Nvidia/Ati?
Misschien met prijzen? De goedkoopste 6200 in de pricewatch zit op 93 euro, niet echt een high-end prijsje. Een 6800 gaat al gauw richting de 400!
Met prestaties bijvoorbeeld?
De fabrikant plaats zelf zijn producten in een categorie, natuurlijk is niet ook niet altijd reeel (zoals bij XGI en SIS :P, zij denken dat ze goede mid-range zijn)maar bij ATI en Nvidia welke van low- mid- en highrange hebben klopt het wel.
Ik hoorde vandaag dat de "SLI" oplossing van ATI, nu al , een proto-type, de SLI van nVidia met een paar FPS verslaat,
BetaCenter
News:
ATi SLi have beaten Nvidia SLi already before there test version is even released! Next week is there first test release. I know that there sli adapter is different than nvidia's because they want theres to be safer. ATi have beaten Nvidia's sli in games by a small Fps but they have told me for when its finshed they have planed to beat Nvidia's standards by 20% on the sli increase.
Als dat waar is, dan kan nVidia het wel schudden.
schudden? Nivdia heeft anders vele maanden sli eerder weten te introduceren dan ati. Ati loopt ver achter de feiten aan.
Ati loopt ver achter de feiten aan.
niet helemaal
ATI leverd al velen jaren opstellingen met 2 4 8 16 of nog meer GPU's gecombineerd(voor onderander het leger in flight sims bv). iets wat Nvidia voor SLI niet kon doen.

verder is Nvidias SLI gelimiteerd tot 2 GPU's (so much for Scable....) terwijl ATI's opstelling meerdere GPU's kan onderstuenen (denk: kaart met 2gpu's maar 2 bv)
tuurlijk... daarom dat het zo lang duurt om AMR op de markt te brengen. Toch vreemd als dat allang zou bestaan.

De realiteit is echter dat ATI momenteel geen AMR heeft en de eerste maanden ook nog niet. Nvidia heeft SLI al verscheidene maanden op de markt, nforce 4 en binnenkort nforce5 sli moederborden zullen verschijnen en zijn al verschenen en gaan als zoete broodjes de toonbank over. SLi is een groot succes aan het worden, ATi loopt inderdaad er ver achter de feiten aan..
is SLI wel daadwerkelijk een groot succes aan het worden?

Tuurlijk, het staat hardstikke leuk in de benchmarks op de review sites.
Maar hoeveel mensen hebben er ook daadwerkelijk een SLI configuratie? Dat is bijna niemand.

SLI heeftook de nodige problemen met nieuwe spellen. (De nieuwste MS flightsim kan blijkbaar op geen enkele manier met SLI werken) En verder vinden de meeste mensen het gewoon veel te duur voor te weinig prestaties.

Je kan het gebruiken als mogelijke goedkope upgrade van je huidige single 6600GT in de toekomst. Maar zelfs dan is het maar de vraag of je wel echt goedkoper uit bent.

Dat is dan ook de reden dat SLI lange tijd door ATI en Nvidia helemaal niet overwogen werd.
Nu is het eventjes hype, maar net zoals bij de voodoo's zal het weer snel overgaan.
In de tussentijd moet ATI natuurlijk wel mee. Al was het alleen maar vanuit PR oogpunt.
uuuhhh Welcome to BetaCenter - The Greatest Site on the planet

als je dat boven aan je "enige" pagina zet dan moet het ook waar zijn :+ :+
ik heb nog nooit een webpagina gemaakt maar ik weet op zeker dat ik het in Word beter kan :Y)
echt een toppie bron. :D
^^ Copywrite© 2005
zegt genoeg |:(
Wat dacht je dan van deze:

Contect me if there is not some game that you think should be on this site
ze hadden toch gewoon iets een beetje verkeerd getypt, maar best wel grappig. Copywrite :p
als jij een site vertrouwd dat gehost wordt door FREEwebs... jah wat kun je daar op zeggen.

Maarja SLI ik grotendeels afhankelijk van de drivers zou ik zeggen.
6200 is tegenwoordig allang geen high-end meer. 6600 GT misschien nog net[...]
De 6200 is budget (low-end)... Het is nooit een high end chip geweest, en de 6600 tot 6800(LE) is midrange.
nVidia's High End begint eigenlijk bij de 6800GT, misschien de gewone 6800.

Het is sowieso vreemd dat ze bij de definitie "High-End" kijken naar het aantal transistors en niet naar de verkoopprijs. Wat is dat nou voor criterium :?
Gezien nVidia's hele midrange en een deel van hun low-end volgens Mercury onder high-end valt is het niet zo vreemd dat ze volgens die test de high-end markt stevig in handen hebben :Z

Hypothese: Als er dus met een revolutionaire nieuwe technologie een GPU zou worden geproduceert met 90mln transistors, die op gelijk niveau of beter presteert dan de huidige GPU's zou dit volgens Mercury dus niet high-end zijn :?
Dat criterium is uiteraard belachelijk.

Maar zo heeft Nvidia de cijfers toen aangeleverd aan Mercury. En Mercury heeft dat klakkeloos overgenomen van Nvidia.

Ik zal vriendelijk voor Mercury zijn en niet stellen dat ze daarmee toen Nvidia biased waren.
Maar dan wisten ze dus gewoon niet waar ze het over hadden. Ook niet bepaald handig als je ergens onderzoek naar wilt doen.

Vervolgens is de hele wereld over ze heen gevallen en bleek dat de conclusies van het onderzoek complete onzin waren.

Nu blijkt dus dat ze NIETS GELEERD HEBBEN van dat alles, en dat ze nog steeds vrolijk de cijfers gebruiken zoals Nvidia ze graag wil zien.

Nu is er dus geen excuus meer dat ze een gebrek aan kennis hebben.
Dus blijft er maar één conclusie mogelijk: Mercury is Nvidia biased.

Uiteraard zal Aval0ne me er nu van beschuldigen een ATI fanboy te zijn. Maar ik zie geen andere mogelijke conclusie.
De feiten spreken immers voor zich.
Nee, ik geef je ten dele gelijk. Mercury is niet zo goed bezig en de cijfers zijn onbetrouwbaar. Maar Ik vind wel dat het aan teken aan de wand voor ATi is.

Enne MJT: je ben een ATi fanboy :P
@cheetah:
Het is sowieso vreemd dat ze bij de definitie "High-End" kijken naar het aantal transistors en niet naar de verkoopprijs. Wat is dat nou voor criterium
ik vind jouw criterium ook redelijk krom eerlijk gezegt. (no flame intended). Als je nou zou kijken naar het aantal 3D marks of punten uit benches, of eventueel naar keiharde specs/resultaten verhoudingen zou ik zeggen dat je redelijk wat hebt om een oordeel te vellen over low, middle en high-end kaarten.

persoonlijk intresseert 't me overigens geen bal hoeveel transistors m'n 6800GT bevat, 't ding moet gewoon goed 3D renderen onder zowel windows, als Linux als FreeBSD. (en dat doet ie gelukkig).
een 6200 een hig-end kaart omdat hij zoveel transistors teld, over een paar jaar is op deze manier elke kaart een hig-end kaart
En die de drempel van 100 miljoen transistoren blijft zeker gelijk :z
sommige kaarten presteren voor geen meter in 3D, maar zijn gemaakt voor bepaalde apps (3d renderen, superieure beeldkwaliteit etc).

High end is niet altijd af te lezen aan het aantal fps in een game.
Als ie zwaar geoptimaliseerd is voor bepaalde apps en t beste presteerd is nog steeds highend hoor.
Alleen misschien niet in de gamewereld, maar daarom nog steeds wel highend. Kijk maar s naar de firegl reeks bijvoorbeeld.
gpu+gebruikt geheugen+aantal pipelines? een 256MB kaart is soms langzamer dan een 128MB kaart..aantal pipelines sja wat voor pipelines
Ik vind toch dat Ati het goed doet bij de Laptops, meeste laptops hebben gewoon standaard Ati erin zitten. :)
Sja ik denk toch dat het altijd zo blijft, de ene wat soms wat meer aandeel dan de ander, maja, ze blijven concurreren waar wij (de consument) alleen maar profijt van hebben.
Inderdaad, heb je keuze... Ik had liever een GeForce gehad, maar ja de keuze was uit: Geforce 5200 of een ati 9600 og een 9800.

Lekker is dat.
Kan iemand mij dan uit leggen wat er zo raar is dat een GPU high-end is als er meer dan 100.miljoen in verwerkt zitten.
En mischien en beter critererium bedenken om een GPU als high-end aan te duiden.
B.v. Gpu + het gruikte geheugen of aanpiplines dat aanwezig is.
De prestaties van een GPU alleen beoordelen aan het aantal transistors is net zoiets als de prestaties van een CPU alleen beoordelen aan het aantal Ghz.

Allebei is het nietszeggend.
Uiteindelijk telt alleen wat voor prestaties er geleverd wordt in applicaties.

Daarom dat goed geinformeerde kopers van CPU's en GPU's dan ook andere criteria gebruiken voor de prestaties: een flinke selectie benchmarks.

Een marktonderzoek zou het onderscheid op dezelfde wijze moeten maken.
Ik vind dit maar rare cijvers volgens mij heeft ATi ATM wel een groter aandeel dan nvidia door hung goede verkopen in de 9500 tot 9800 serie. De FX serie toen was gewoon een grote flop. Ik denk niet dat ze dan ff in 3 maanden goed maken.
Ik zou de volgende criteria gebruiken:

- prijs
- prestratie (fps) in 2 recente open gl games en 2 recente direct 3d games.

Pipelines zeggen de consument niet zoveel. Die denken vaak dat veel beter is, terwijl dat lang niet altijd zo is. Voor geheugen geldt vaak hetzelfde.
Ik zou prestatie (fps) in 0,5 recente opengl games nemen en 5 recente DX games.

Dat komt wat beter overeen met de verhoudingen in de markt. :)
Ik heb nog een Tseng Labs ET4000 liggen (voor de kenners), voor ¤400 mag je deze kopen, is dit nu ook een high-end kaart?

Ff serieus, een high-end kaart kan je imho maar op één manier te weten komen, vergelijking met concurent kaarten (van zelfde of ander merk) Hier trek je vervolgens een grens waarbij je high, mid en low-end classificeert.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True