Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 32 reacties
Bron: X-bit Labs, submitter: Jurroon

Recentelijk maakte nVidia de financiŽle resultaten bekend over het afgelopen derde kwartaal, zo meldt X-bit Labs. Ondanks een omzetstijging van achttien procent ten opzichte van het derde kwartaal in 2002, daarmee uitkomend op 430,3 miljoen dollar, kwam nVidia uit op een verliesgevend nettoresultaat, voor het eerst sinds 1997, ter hoogte van 48,6 miljoen dollar. Hierin was meegenomen een kostenpost van 61,8 miljoen dollar voor het inwisselen van opties van werknemers. Met betrekking tot de overige redenen voor nVidia's tegenvallende netto-resultaten schrijft X-bit het volgende:

nVidiaGenerally speaking, there are a lot of reasons why NVIDIA losses money, including the ones they blame. The most important are the current state of the graphics cards market and the pressure from ATI Technologies, as strong as never before. At the moment I am not able to make any predictions about NVIDIA, since everything develops very rapidly and even unpredictably. Maybe tomorrow NVIDIA will launch its NV30 that will blow the rivals away to Canada, maybe NVIDIA itself will have to stay back in Santa Clara, developing and redesign the highly-anticipated VPU.
Moderatie-faq Wijzig weergave

Reacties (32)

Hierin was meegenomen een kostenpost van 61,8 miljoen dollar voor het inwisselen van opties van werknemers
Dat is dan iig nog 'gematigd positief'. Ik bedoel, uiteraard zijn het kosten maar die zijn iig niet te wijten aan een kwakkelende economie oid.

Daarnaast is de economie gewoon sucky op dit moment en nVidia maakt niet echt wat je noemt primaire levensbehoeften en vangt daar dus gewoon klappen van op ;). Zeker nu er 'eindelijk' een concurrent is voor nVidia in de vorm van Ati.

Voor de rest heeft de schrijver van dit stukje gewoon gelijk met zijn conclusie, dit is niet veel meer dan 'een bericht' gewoon omdat er helemaal niks te zeggen valt. Als de NV30 voor de kerst in de winkels zou liggen is 'alles' weer goed maar als bijv Ati morgen komt met een Radeon 9900 PRO (ik noem maar wat ;)) dan kan nVidia de komende maanden wel inpakken.

Ach, voor de consument is het niet slecht, zolang er maar genoeg geld overblijft om door te R&D'en.
Het is niet zo heel positief. Men heeft opties gegeven aan het personeel. Door de malaise op de aandelenmarkten zijn de opties nu waardeloos. En wat doet nVidia? Die zet de opties om in pakketten aandelen en geeft de aandelen aan het personeel. Dit resulteert dan in een kostenpost die zo hoog is dat er nu verlies wordt gemaakt.

En wij altijd maar horen dat opties afhankelijk zijn van de resultaten......
mmmmm er heerst bij veel tweakesrs de gedachte dat alle onderdelen die zei kopen ook bij de markt de meest gewilde producten zijn ... de verkoop van highend kaarten als de GF 3 en 4 maakt echt nog geen procent uit van het totaal aantal verkochte kaarten, de meeste kaarten zijn lowbudget kaarten voor de Dells, Compaqs en IBM's van deze wereld en daar is ATI onbetwist marktleider in. Nvidia is the highend koning (niet lang meer denk ik
).

Je moet bij dit soort onderwerpen proberen vanuit de markt te denken en niet altijd vanuit een pure tweakergedachte (alhoewel verfrissend), alhoewel de tweakers wel een belangrijke indicator zijn van wat het op een later moment populair kan worden voor het grote publiek, op ene forum als dit komen natuurlijk de voorlopers-innovators.

De vaak blinde Nvidia gedachte zie ik ook nog weleens teugkomen in de vaak blinde support voor AMD, terwijl de technologie toch echt op veel fronten en segmenetn achterlooopt op die van Intel, is ook logisch, Intel heet een 15 maal zo groot R&D budget, maar toch, even nuanceren, ook al is het steunen van de underdog een mooi principe, sccs

The Dweeb

mod:ik heb trouwens ook een GF kaart, gewoon omdat de driver support van Nvidia gewoon erg goed is

mod: ik bedoel puur grafische chipsets en niet onboard, daarvan weet ik het niet.
....de meeste kaarten zijn lowbudget kaarten voor de Dells, Compaqs en IBM's van deze wereld en daar is ATI onbetwist marktleider in. ....
Ik zou dat niet te hard roepen.
Wat denk je bijvoorbeeld van Intel, met (nu) de onboard grafische chips bij sommige varianten van de i845, en een tijdje geleden de i815, en i810(toen was intel in dat segment marktleider).

Irritante spelfout weggewerkt
Die 4 procent is misschien relatief klein maar wel het marktsegment waar nVidia groot mee geworden is en wat nog steeds de corebusiness van nVidia is.
Dan is het aura van snelste gamekaart fabrikant essentieel in de marktstrategie.

Daar uit voortvloeiend, heeft Ati eerder wat te vrezen van nVidia dan andersom.
Met 3dfx als voorbeeld van hoe snel een bedrijf gepasseerd en opgeslokt kan worden (en wie weet dat beter dan nVidia zelf) is nVidia nu keihard bezig om een stabielere markt te penetreren waar het een stuk rustiger is en heel veel geld te verdienen valt: Ati's eigen lowcost segment.
En een kans maken ze zeker met de nForce2 + integrated graphics. Lowcost, meest komplete oplossing op dit moment en niet meer afhankelijk van Intel = zeer aantrekkelijk voor Dell & Co.

Erg snugger vind ik de analyse van xbits dan ook niet:
"Maybe tomorrow NVIDIA will launch its NV30 that will blow the rivals away to Canada"
nForce2 zullen ze bedoelen, daar zit de dreiging voor Ati.

En wat de verliezen betreft, valt wel mee, zeker als je de R&D kosten voor de NV30 en nForce2 meetelt.
Daarbij komt nog eens dat nVidia's marketingstrategie gewoon beter is.

Veel meer keus aan types met hun TIs's. Er valt meer winst te behalen in het "bulk" segment dan in het "highend" segment, omdat de verkopen daar gewoon meer zijn. Welke pa schroeft nu voor zijn zoontje een AtiRadeon9700 in zijn pc voor 400 euro?

Nee, dan maar een Gforce4TI 4200 ofzo, betaalbaar en beter dan de low-ends van ATI.
Zonder die extra kostenpost hadden ze nog een aardige winst geboekt. Alleen daardoor hebben ze nu verlies geboekt, als ze dit niet hadden meegerekend had het er positiever uitgezien :)
jah, zo kun je alles wel een positieve zwaai geven, of niet ? :P
Wel positiever ja, maar echt geweldig is het niet hoor, althans niet voor nVidia standaarden; die 13,2 winst die ze dan gemaakt zouden hebben is maar een fractie van wat ze vůůr 'het ATI tijdperk' ;) aan winst maakten.
Dat kan ik me toch haast niet voorstellen.

Nvidia is verreweg de grootste grafische chip producent.
Een budget grafische kaart gaat nog voor 100 Euro over de toonbank. En dit is toch serieproductie. :?

oke voordat er overgegaan wordt tot serieproductie is er eerst heel veel onderzoek en ontwikkeling gedaan. Maar goed ik zie Nvidia toch als de "intel" van de grafische chips
Je moet een paar dingen niet vergeten.
Ten eerste heeft nVidia nu voor het eerst in tijden 'echte' concurrentie (van Ati). Daardoor worden ze gedwongen in een moordend tempo nieuwe chips te ontwikkelen en dat kost gewoon geld.

Daarnaast is de markt voor grafische chips gewoon kleiner dan bijv de cpu-markt (als we Intel even meenemen als voorbeeld). En door de kwakkelende economie krijgen ze nog een extra opdoffer (je koopt minder gauw een pc en als je er een koopt koop je eerder een GeForce 4 4200 dan een 4600 in tegenstelling tot bijv een hoogconjunctuur waarin je geld 'genoeg' hebt).
[quote]Ten eerste heeft nVidia nu voor het eerst in tijden 'echte' concurrentie (van Ati).[/qoute]

Niet echt, Ati is ik weeet niet hoe lang de grootse geweest op het gebied van grafische chips. Ik denk dat je de OEM markt een betje uit het oog bent verloren. Want ten tijde van ven de GF2 en de GF3 kwam nViaida pas in opmars. En sinds kort ( relatief dan ) is nViadia pas de grootste.

En heel vreemd vind ik het niet, de markt is over het algemeen niet erg goed. En nu krijgt ook nViaida daar de klappen van. Ik denk dat dit tegenvallertje medio volgend jaar wel weer vergeten is. De markt zal toch weer es moet aantrekekn na deze recessie, en nVidia zal ( evenals ATi ) hiervan wel weer vruchten plukken.
Ik denk dat nVidia helemaal niet de grootste gafische chipproducent is. Je moet namelijk even bedenken hoe de markt in elkaar zit, en die bestaat dus niet uit tweakers, maar uit bedrijfspc's. Deze zorgen voor de overgrote meerderheid.
Daarom denk ik dat nVidia bijvoorbeeld moet concurreren met geintegreerde chips, ATI (was altijd dť grootste spel, weet niet of dit nog zo is), en andere OEM fabrikanten. Kijk maar eens rond op business sites en non-tweaker hardware pages. Wedden dat er ook nog een hoop andere kaarten bestaan dan de Geforce 4?
Daarbij zeg je ook nog dat er wel 100 euro wordt verdiend aan die kaarten. Is natuurlijk ook niet waar: ten eerste marge voor de winkelier, distributeur en producent. Daarbij moet je even bedenken dat die kaarten niet bepaald gratis worden ontwikkeld. Laatst was er op tweakers ook een artikel over de "machinekamer" van nVidia. Stonden best wat pc-tjes in, en R&D personeel is nou ook niet bepaald gratis. Zal dus best tegenvallen wat ze per chip verdienen.
Ik denk dat nVidia helemaal niet de grootste gafische chipproducent is. Je moet namelijk even bedenken hoe de markt in elkaar zit, en die bestaat dus niet uit tweakers, maar uit bedrijfspc's. Deze zorgen voor de overgrote meerderheid.
nVidia weet dat ook wel, 90% van de chips die ze verkopen zijn GeForce4 MX of minder snel. Zelfs de TNT2 is nog in productie! Dat zijn echt geen gamers die die kaarten vandaag de dag nog kopen :). Daarnaast hebben ze een succesvolle entree gemaakt in de markt voor notebookgraphics en zijn ze ook op de goeie weg met Socket A chipsets. In totaal is de omzet van nVidia ongeveer het dubbele van die van ATi, en ook qua aantallen chips en marktaandeel hebben ze voorlopig nog niets te vrezen. Vroeger was het inderdaad (heel simpel gezien) zo dat nVidia high-end deed en ATi de rest, maar dat is inmiddels achterhaald ;).

De marge's op de high-end videochips (die bovenste 10%) voor nVidia zullen niet zo hoog zijn als hierboven wordt beweerd, maar het zit wel in die orde van grootte. Er is geen recente informatie over beschikbaar helaas, maar de meeste fabrikanten kopen chip en geheugen als totaalpakket van nVidia. Een GeForce3 met 64MB geheugen kostte (toen dat pas nieuw was) 205 dollar, en een losse GeForce2 Ultra chip 105 dollar, vrij veel dus.
de "3dfx" is langzaam van zijn monopoly aan het wegvallen mischien

heel gezond (niet voor nvidia) alhoewel met een omzet stijging van 18%.....

/edit voor duidelijkheid... 3dfx staat hier tussen haakjes en is dus als vergelijking bedoeld maar voor de onwetende lees gewoon "3dfx" = NVIDIA :P
de "3dfx" is langzaam van zijn monopoly aan het wegvallen mischien

Huh ?? Wanneer heb jij voor het laatst een videokaart gekocht ? Of uberhaubt nieuws gelezen ?

Misschien moet je ff dit nieuwsbericht lezen ...
Ik denk dat hij op NVIDIA doelt ;)
Die had tot voor kort net zo'n positie als 3dfx een paar jaar terug.
idd dat bedoel ik

grappig dat jij een +4 krijgt en ik een 1 terweil ik het origineel poste maarjah.... mods :)
Dit zal weer geen goed nieuws zijn voor de beursen, nVIDIA is immers altijd een van de best presterende aandelen, als nu ook dat gaat verlies maken...
Sinds januari 2002 is het van $71 naar net boven de $7 (in september) gegaan. Nu staat het ongeveer $15, maar dat "een van de best presterende aandelen" valt lekker tegen he.
Het is tot nu toe naar mijn mening een wisselspel. Momenteel is die 9700 pro de snelste kaart, straks misschien die nv30. Of dit betekend dat de concurent zijn spullen kan inpakken vind ik een beetje onzinnig.
De 9700 en Ti4600 spelen maar een relatief kleine rol op de videokaartenmarkt hoor. Natuurlijk kopen de die-hards de high-ends wel, maar wie betaald er nou meer dan 300 euro voor een videokaart? Bijna niemand.

De Ti4200 is voor nvidia dan ook de echte "cash-cow" die het geld moet binnenbrengen (denk aan de OEM's, altijd een MX440 of Ti4200), terwijl de Ti4600 eigenlijk niet veel meer is dan een paradepaardje die aanzien moet verwerven.
Denk dat Nvidia op dit moment wel wat verliest in het highend segement, maar dat zal alles meevallen. Ten eerste is de radeon 9700 niet bepaald goedkoop en ten tweede gaan veel mensen voor de zekerheid die een nvidia geforce kaart biedt. Ik had ook problemen met m'n radeon 9700 in het begin, omdat compatibility met ATI kaarten naar mijn idee minder goed is dan dat met nvidia kaarten.
En tenslotte wacht ik met vrees op de NV30. Als deze kaart echt zo goed is als gezegd wordt dan gaat het leeuwendeel van het highend marktsegment gewoon weer naar nvidia en ruil ik die ATI weer in.(Al zal het nog wel ff duren tot deze in grote aantallen beschikbaar is)
Dat over problemen met ATI kaarten had ik ook al een post over gemaakt gisteren maar toen werd ik gebombardeerd met reacties dat ATI zijn drivers wel in orde heeft.

Nou dat moeten we nog zien, dat ATI's drivers zijn verbeterd ok, maar de driver problemen opgelost?

Alleen al het gevoel dat ik een ATI kaart heb maakt mijn pc instabiel.
Dat aTI problemen heeft (had?) met zijn drivers is vooral de schuld van Nvidia. Dit weet ik dankzei een gesprekje met een medewerker van een Software-Huis , die "Neverwinter Night" uitbrengt. De reflectie op water (transperantie) werkt niet met de aTI-kaarten.
Volgens hem komt dat doordat Nvidia een andere techniek gebruikt of iig een aangepaste code. Het probleem zit hem hierin dat MS Directx deze "Nvidia" -code heeft toegepast in de drivers, buiten het overleg-orgaan van het MS Dx-consortium om. Iig is een en ander niet democratisch verlopen, waardoor andere chip-bakkers (waaronder aTI) met de gebakken peren zitten. Ondertussen heeft men de zaken onderhuids (torentjes-overleg?) geregelt en hebben Nvidia en aTI de banden nauwer aangetrokken.

Worden ze toch nog es wijs, was al bang dat dit weer zo'n oorlog alla video2000/betamax/VHS ging worden...
Dat brengt dat bericht van gisteren, dat ze iets marktaandeel gewonnen hadden tov ATI ook weer in een ander daglicht.
het is ook door Ati idd dat ze nood gedwongen zijn om de eigenlijke "Next Generation" kaarten/Chips te ontwikkelen...
Dik kost bakken met geld:
1) de ontwerpers
2) de machines
3) de grondstoffen
4) de productie
5) de werknemers....

daarom zullen ze vast die verlies hebben ach ja, hun zullen er niet omkijken naar zo'n verlies... 't wordt waarschijnlijk toch weer bijgetrokken of...
ze hebben nu iets om van de Belasting terug te krijgen :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True