Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Bron: Planet GeForce

Een woordvoerder van Abit heeft aan Planet GeForce laten weten dat het bedrijf niet van plan is om binnenkort met een GeForce3 kaart te komen. Voor deze beslissing worden drie redenen genoemd, namelijk de hoge prijs, mogelijke leveringsproblemen door grote vraag naar de Xbox en het ontbreken van software die de kracht van de chip kan laten zien. Het is echter niet uitgesloten dat er in de toekomst alsnog een gemaakt wordt:

Abit logo (klein)Actually, at this time ABIT will not be making a GF3 card. We are concerned about the high price and about the ability of nVidia to offer continued supply with their X-Box demands. We will look at producing such a card in the future when a greater number of applications and games will be able to make full use of the power of the nVidia GF3.

Ook Creative is verdacht stil als het over de nieuwe videochip gaat. Bedankt vinz voor de submit.

Moderatie-faq Wijzig weergave

Reacties (44)

Als andere fabrikanten negatieve publiciteit krijgen ivm leverings problemen staat Abit lachend aan de kant. Nadeel is wel dat als de leveringsproblemen zijn opgelost zij als laatste aan de beurt zijn voor leveringen.

Je gaat mij niet zeggen dat een bedrijf dat een product levert dat in zo`n korte tijd wordt vervangen door een vernieuwde versie, die chips in "grote" hoeveelheden heeft liggen. Dus moeten de afnemers alsnog in de rij gaan staan :Z
Leuke opmerking: Als de leveringsproblemen opgelost zijn komen zij als laatste aan de beurt. Als er geen leveringsproblemen zijn hoef Abit ook niet meer te wachten, lijkt mij.


:7
Lijkt me makkelijk zat. Niet alleen de consumenten worden ondertussen een beetje moe van elke 6 maanden een nieuwe VGA kaart, maar fabrikanten zien hun product lifecycle steeds korter worden, met als gevolg dat het moeilijker wordt om hun ontwikkelingskosten te verzilveren of zelfs nog winst te gaan maken. Typisch ook de reden dat alle G-force kaarten van bijna alle fabrikanten gewoon het reference design van NVidia volgen, want het is gewoon te duur om het zelf goed te doen (lees: de tijd die je hebt om je design terug te verdienen is te kort)

NVidia zal uiteindelijk zichzelf in de vingers gaan snijden als ze niet rustiger aan gaan doen. En als ze over een tijdje gedwongen worden het rustiger aan te doen, hebben ze geen resources over om te reageren op een concurrent die ineens een killer chipset lanceert.
Ik vind die geforce toch veel te duur in vergelijking tot de andere componenten van je computer.

f1000+ is voor de gewone gamer niet te behappen. Geforce3 behoort echt tot de Super DieHard gamer met een dikke portomonai :(.

en als je hem koopt hebbie 500 fps, dus ? gaat lekker als je monitor er maar 100 max weerkan geven.

nee niet aan mij besteed
De introductie van nieuwe GPU's gaat tegenwoordig vooral om andere dingen dan mooie framerates. Zo heeft de GF3 bijvoorbeeld een betere antialiasing engine, waardoor je dus een betere beeldkwaliteit hebt. Verder zijn nieuwe opties als Env. Bump Mapping bij bijv. de Radeon erg leuk, als ze in games worden geintegreerd.
iedereen zegt maar dat nvidia de prijzen omlaag moet gooien. zij hebben niet van die hoge prijzen hoor. een gf3 chipje heeft de fabrikanten 50-75 dollar gekost. het geheugen is gewoon niet snel genoeg en daarom moet er superduur geheugen in die kaarten. en inderdaad. de prijzen zakken dan niet echt omdat het gewoon ongeloveloos moeilijk te maken is op zon snelheid.

daarom vind ik die kyro ook zon leuk ding. die had er echt low-end geheugen in. maar gaat nog best hard.

nvidia kan wel stoer doen met zn super-snelle chips. maar ik vind hun volgende chip pas echt goed als ze die geheugen bottle-neck er uit hebben. want dit is belachelijk. kan me niet schelen of die chip programmeerbaar is. volgens mij zuigt die geheugen-bus nog steeds. gewoon meer van hetzelfde.
Hoezo minder concurrentie, als je het mij vraagt is het Nvidia die de prijzen stelt :(
Nvidia stelt alleen maar de prijs van hun chip vast en het grooste deel van de prijs van z'on ultra kaart bestaat dan ook uit andere kosten...in nederland betalen we bovendien altijd meer dan in de VS/canada omdat we hier vaak te maken hebben met 1 officiele (nederlandse) importeur die dikke winst wil maken (daarom kan hardware in nederland soms zelfs na btw correctie nog 100% duurder zijn dan in de VS)

Concurrentie zal er voor nvidia altijd blijven, en zeker wanneer ze hun producten (chips en geen eindproducten) verhoudingsgewijs te duur gaan maken zal de concurrentie vaste voet aan de grond kunnen krijgen, dus zelfs de dreiging van concurrentie bevorderd innovatie en optimale prijzen...

* 786562 blouweKip
Niet realistisch, kip. Distributeurs verdienen minder dan 5%.

Het is niet de distributeur die veel verdient maar voornamelijk de fabrikant die veel meer moet investeren in hun produkt voor de europese markt.
Hoe kun je de VS vergelijken met tientallen europese landen?

Exclusieve distributie is voor nagenoeg alle hardware niet mogelijk en volgens mij ook niet wenselijk voor een fabrikant.
Ik vraag me af of nVidia met de hoge prijzen niet z'n eigen graf graaft. Als producenten als Abit ervoor kiezen om bepaalde kaarten niet uit te brengen, dan blijven de prijzen van de andere GeForce3 kaarten hoog, zodat veel consumenten over zullen stappen op andere merken, zoals bijv. de Radeon van Ati etc.

Bovendien vraag ik me af wat meer geld oplevert. Het verkopen van véél goedkope chips, of het verkopen van slechts een paar dure chips. Omdat de kosten voornamelijk in de ontwikkeling en niet zozeer in de productieprocessen zitten, ben ik erg benieuwd waarom nVidia voor de 'dure' strategie kiest. Zou het ze nou echt zoveel extra opleveren?

Ik ben erg benieuwd wat er gaat gebeuren als er concurrenten op de markt komen met gelijkwaardige producten. Het lijkt me dat er dan hele volksstammen weglopen bij nVidia, zoals we dat ook bij de CPU's zien.
Nvidia heeft meer soorten chips dan alleen de gf3 of de gf2ultra, ze brengen ook die mx chips uit die veel prestatie voor weinig geld leveren, zolang nvidia gewoon goedkoper kwaliteitsproducten blijft leveren naast hele dure topmodellen vind ik het prima. voor het spelen van de mees5te spellen maakt het verschil niet echt uit, dus wat maakt die hoge prijs dan uit als nvidia zelf voldoende (goedkope) alternatieven bied.
Je moet je dus niet blindstaren op de duurste modellen, maar meer kijken naar waar nvidia zn geld vandaan haalt: de verkoop van goede, en goedkope chips voor de grooste marktsegmenten
Ik ben erg benieuwd wat er gaat gebeuren als er concurrenten op de markt komen met gelijkwaardige producten
Zoiets is vaak zeer moeilijk als je een concurrent met een zeer goed product tegnover je hebt, nvidia heeft destijds de markt van 3dfx over kunnen nemen omdat 3dfx gewoon troep maakte in verhouding tot nvidia's eigen producten en bovendien de marktvraag negeerde, nvdia heeft nu een hele sterke lijn met producten, gedifferentieerd over verschillende markten en hoewel ik best geintegresserd ben in wat ati gaat doen, denk ik dat ati niet voor minder geld een betere chip op de markt kan brengen dan nvidia op dit moment...

Intel is wel te vergelijken met 3dfx destijds, hoewel intel wel goede producten maakt, maar dan voor een veel te hoge prijs...zodat AMD er relatief gemakkelijk tussen kan komen, die situatie bestaat niet op de videokaarten markt dus daar is het relatief moeilijk om te concurreren met de al aanwezige goede producten.
Inderdaad Abit en bijvoorbeeld Asus krijgen alle grafische chips toegeleverd van Nvidia. Misschien is de winstmarge voor Abit te laag geworden ( de hoge prijs die in het artikel genoemd wordt )
Wat mij niet geheel duidelijk is waarom Nvidia niet zelf complete sets afleverd
Tja, zie wat er met 3dfx is gebeurd, ook zei maakte eerst alleen de videochip welke dan ander op hun videokaart plaatste, maar ze dachten slim te zijn en namen alles in eigen hand, blijkbaar toch lastiger als verwacht.

Als je dus alleen videochippies maakt hoef je je dus alleen maar daar druk om te maken en kun je het verkopen enzo overlaten aan de makers van de videokaart (scheelt een hoop geld voor reclame e.d.)
Waarom zijn bijna alle kaarten dan hetzelfde? Omdat ze bijna niet afwijken van het ref. design en van wie komt die?? Juist van nVidia, dus waarom ze het nou niet in eigen hand houden mag joost weten
Het reference design komt van nVidia in samenwerking met vroeger Creative en tegenwoordig Asus geloof ik (en Elsa voor de Quadro).

Maar een reference design maken is nog iets anders dan een videokaart verkopen, de budgetten voor reclame e.d. zijn enorm (vooral in de US), dat is ook een van de redenen dat 3dfx onderuit is gegaan.
Sjit ik hoopte dat Abit bij de GF3 eindelijk zij beroemde "softmenu" ook op de grafische kaartmarkt zou gaan introduceren :*)
Abit heeft dit niet op zijn grafische kaarten, maar Aopen al wel! Het heet openbios en je kan dan gewoon bij het opstarten van je pc, in die bios de instellingen wijzigen.
Ja ok maar in de Xbox zit toch geen GF3 :? Wat heeft dat dan met elkaar te maken :? Intel kreeg toch ook geen leveringsproblemen met de P3 Toen de P4 kwam......

offtopic:
Overbodig voor mijn bovenstaande reactie vinnik wat overdreven :?
volgens mij zit in de X-box nog altijd de NV 20 = geforce 3 .....
De X-Box zou 2 vertex shaders krijgen i.p.v. 1 lijkt me dus in ieder geval een andere chip....

Hoe ze 'm gaan noemen zal me worst wezen in de X-Box komt toch nog veel meer NVidia hardware en volgens mij zouden ze meer gaan intergreren op dat ding (chipset+NV20?) Maar mischien moeten ze door de zelfde fab geproduceerd worden en dan kan er dus voorang ontstaan voor de X-Box chip.
correct me if i'm wrong,
maare is de Geforce 3 niet de NV30?? (8>
Het is alsof niemand dit ooit eerder heeft meegemaakt... Misschien kennen jullie de Voodoo2 SLI nog ;) Dat kostte je ook 1200 piek, en dan had je alleen nog maar een 3d accelerator. En toen de Voodoo1 uitkwam waren er vrijwel geen spelletjes te vinden die het goed ondersteunde (dus daar ik had 1 jaar lang een nutteloze kaart :( )...
Toen de Voodoo I uitkwam kon ik met die kaart nog gerust 1,5 jaar lang allerlei spellen spelen, behalve nadat MMX standaard geintroduceerd werd toen werd de kaart langzamerhand minder interresant.

Geen slecht woord over de Voodoo I
Nu kun je met een moderne kaart (gf2 mx) ook prima nog 1,5 jaar spellen blijven spelen...dus dat zegt weinig over de voodoo kaartjes...
Toen ik ooit mn v1 kocht vond ik het een fantastische kaart, de v2 daarentegen was duurder terwijl er nauwelijks verschil was (in praktische zin) met de v1...dat kon 3dfx toen nog flikken door hun realtieve monopolie, de banshee was een vette mislukking en zorgde er volgens mij pas echt voor dat nvidia de markt veroverde met de veel betere tnt1...tja, als je als fabrikant niet naar de markt luistert dan ga je uiteindelijk falliet......de v5-6000 is nog altijd de duurste videokaart die (hoewel verlaat) op de markt is verschenen, de kosten van die kaart waren waarschijnlijk een van de redenen van het fallissement van 3dfx.
Sterker nog, ik speel al dik 1,5 jaar alle spellen met mijn TNT2'tje..
Alleen Giants had het moeilijk tot nu toe.. de rest gaat nog perfect (ok, in 1024).

Zoals het hoort natuurlijk wel redelijk overklokt ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True