Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia verwacht scherpe omzetdaling

Na Intel en AMD komt ook Nvidia met een omzetwaarschuwing voor het vierde kwartaal van 2008. Eerder verwachtte de chipfabrikant nog een omzetdaling van 5 procent, nu is die prognose bijgesteld naar een omzetdaling van 40 tot 50 procent.

Nvidia heeft gewaarschuwd dat de omzet in het vierde kwartaal van zijn fiscale jaar, dat op 28 januari afloopt, wellicht de helft lager zal zijn dan de omzet in het vorige kwartaal. In november sprak de fabrikant nog van een kleine daling van omstreeks 5 procent, maar het ziet er naar uit dat de wereldwijde economische crisis Nvidia toch harder raakt dan verwacht . In vergelijking met de omzet van 897,7 miljoen dollar uit het derde kwartaal, zou een daling van 40 tot 50% procent een nieuwe omzet betekenen van tussen de 448,85 en 538,62 miljoen dollar. Vergeleken met het vierde kwartaal van het boekjaar 2008, waarin Nvidia een omzet realiseerde van 1,2 miljard dollar, is dat zelfs een daling van meer dan 50 procent.

De omzetdaling zou veroorzaakt worden door de verminderde vraag van zowel channel partners, die eerst van hun oude voorraden af willen, als consumenten. Nvidia is niet de enige hardware-fabrikant die een omzetwaarschuwing afgeeft; eerder berichtten ook chipfabrikanten AMD en Intel over verwachte omzetdalingen van respectievelijk 25 en 23,8 procent. In het het derde kwartaal van 2008 noteerde Nvidia een krappe winst van 61,7 miljoen dollar, of de winst ook halveert is nog niet duidelijk.

Door Marc Rademaker

Redacteur

14-01-2009 • 10:46

49 Linkedin Google+

Reacties (49)

Wijzig sortering
Ja, het is voor hun lekker makkelijk om de "economie", en "de consument" de schuld te geven. Uiteraard heeft dat er mee te maken, maar ik denk niet dat dat het enige probleem was/ is. Als "de econimische crisis" er niet was geweest, hadden ze ook teruglopende winsten gehad.

-Hebben zij even "geluk" dat "de crisis" mooi samenvalt met de slechte verkopen van de GT200... Mooi excuus. Ze mogen ook wel eens een beetje bij zichzelf te rade gaan, en de hand in eigen boezem steken. Ze hebben die slecht verkopende energieslurpende GT200 chip toch echt zelf gemaakt. En laat dat nu net een chip zijn die ze heel erg veel geld en klanten gekost heeft.

Het is duidelijk dat ATi een groot marktaandeel van hun afgepakt heeft met hun HD4800 serie, omdat die een veel betere price-performance gaf dan de GT200 serie. En ook nog eens veel goedkoper te maken. En die chip was ook nog eens energiezuiniger. Mensen kochten liever een HD4870 voor 250 euro, of een HD4850 voor 175, dan een GTX260 192sp voor 300. En de GTX280 lieten ze helemaal "links liggen". Die kostte 550 euro toen hij gereleased werd. Die werd bijna niet verkocht. Afgezien van wat mensen die het snelste van het snelste wilden, ongeacht van wat het kost. Vervolgens kwam de HD4870X2, die sneller was dan een GTX280, en ook nog eens goedkoper. Dus ook met de 280's bleven ze zitten. Duur grapje.

Tevens is het natuurlijk zo dat de nForce moederborden/ chips na de komst van de i7 en X58 een stuk minder verkocht worden, wat ze ook in de portemonee voelen.

Dat R&D met minder vernieuwingen komt, zoals Sneezzer zegt, daar geloof ik niet zo in. Die projecten lopen veel langer dan een paar maandjes. Dus de komende tijd zul je er weinig van merken. Ik denk juist dat die afdeling heel belangrijk is, om in het spoor van de concurrent te kunnen blijven in de toekomst, dus ik denk niet dat ze hier snel op zullen bezuinigen.
quote: KGB007
Wat je zegt is niet helemaal zo. Wat jij zegt impliceert indirect dat AMD dan dus beter moet draaien. Dit is niet het geval want ook AMD heeft te maken met een omzetdaling.
AMD maakt ook nog CPU's. De GPU afdeling doet het wel erg goed.

[Reactie gewijzigd door Format-C op 14 januari 2009 11:57]

Vergeet niet het hele G84, G86 en G92 debakel, ruim een jaar door blijven leveren van foute mobile GPU's (willens en wetens) en uit eindelijk geheel geen oplossing bieden, dan alleen aan te raden over te stappen op de nieuw generatie.

Hiermee zowel OEM partners als consumenten zwaar benadelend. Als consument wetende een high-end laptop in huis te hebben waar de GPU fabriek af niet in in orde is en het elk moment kan begeven.

Persoonlijk hoop ik dat de consument Nvidia zal afstraffen door minder produkten te kopen waar Nvidia componentnen zijn verwerkt. Ik zal in iedergeval dergelijke produkten voorlopig links laten liggen. Gelukkig bied AMD/ATi op alle fronten uittekende alternatieven.
Zeker een hele stevige klap. Maar R&D is een van de weinige activiteiten waar je echt niet op kan bezuinigen. Zodra de markt weer aantrekt, kun je het je niet permiteren dat je concurrent voorop loopt. Ze kunnen alleen overleven door voorop te lopen.
Naast de economische stagnatie zijn er nog andere factoren te bedenken die bepaald niet in het voordeel van nvidia werken.

Toenemende aandacht voor milieu en het energieverbruik van computers leidt ertoe dat de afweging voor een geschikte videokaart anders gemaakt wordt dan eerder het geval was. Voor een machine waarop geen spelletjes worden gespeeld ben je met een kaart van 25 euro al klaar en die gebruikt dan bovendien ook maar een fractie van de energie.

Met de komst van digitale verbindingen naar de monitor zijn de analoge kwaliteitsverschillen ook verleden tijd. Nou is dat een factor waarop nvidia vroeger niet specifiek sterk was (dan koos je liever voor Matrox)., dus dat zou zelfs weer een klein beetje in hun voordeel kunnen werken.

Als ze niets te doen hebben kunnen ze wel eens werken aan een betere ondersteuning van installatie onder Linux. Dat geneuzel om in runlevel 3 een driver te moeten installeren..... Dat kan een heel stuk soepeler.
En toch is R&D meestal het eerste waar dergelijke bedrijven op bezuinigen.
Ik denk dat dit bij Nvidia wel een beetje anders ligt. Je moet niet vergeten dat R&D echt een core business is voor een chip fabrikant. Als je hier teveel op gaat bezuinigen dan weet je zeker dat je de komende jaren achter de concurrend (ATI) aan gaat lopen, want het op een lager pitje zetten van je R&D heeft natuurlijk een sneeuwbal effect van een aantal jaren.
Het zal een kwestie zijn van efficientie vergroten van de productie/inzetten personeel en snijden waar nodig en hopen dat er komende tijd geen tegenvallers komen (zoals het bekende mobile GPU's verhaal).

Verder moeten ze ervoor zorgen dat ze blijvend werken aan het vergroten van je klantenkring. Zo zijn dit soort contracten: nieuws: 'Nieuwe iMacs en Mac Minis krijgen Nvidia's MCP79-chipset' altijd meegenomen.

En natuurlijk kan Nvidia niet alleen wijzen op de invloeden van buitenaf, maar ook het falen van hun eigen nieuwe high-end chips. Ze hebben gewoon een fout gemaakt door ATI zwaar te onderschatten (beetje het bekende hoogmoed komt ten val verhaal...). Het is duidelijk dat ze niet hadden verwacht dat de RV770 chip van ATI zo sterk zou zijn. Hierdoor hebben ze alle zeilen moeten bij zetten en met kunst en vliegwerk de boel op de rit moeten houden (prijs dalingen/revisie van de GTX260/GTX295, enz) Ik weet zeker dat ze het verloop van Q3 en Q4 van 2008 bij aanvang van 2008 anders hadden gezien (los van de economische crisis!) en de planning flink op de schop hebben moeten zetten t.o.v. wat ze eigenlijk van plan waren. Ze hebben hun focus moeten verleggen en dit heeft invloed gehad op de planning van 2009.

Ben heel benieuwd hoe ze het komend jaar ervanaf gaan brengen.

[Reactie gewijzigd door MW1F op 14 januari 2009 13:01]

De investering in R&D zal waarschijnlijk niet lager uitvallen. In deze sectoren is een lagere investering alleen wanneer:
-Het bedrijf heeft een monopolie positie
-Bedrijf is zo n beetje failliet.

Bedrijven hebben heel vaal een kas reserve die zeker wordt aangesproken in zulke tijden. Als Nvidia minder in R&D zou investeren dan lopen ze meteen achter op de directe concurrent(en). En als je eenmaal achter loopt dan is dat niet zo een twee drie goed te maken. Dit zou zelfs op de korte termijn een groter verlies in markt aandeel opleveren voor nvidia. :)

[Reactie gewijzigd door Praetextatus op 14 januari 2009 11:03]

Ik bedoelde eigenlijk niet dat ze minder aan R&D zouden doen maar dat er minder (echte) vernieuwingen de weg naar het eindproduct gaan vinden.
Uiteraard is het wel nodig om onderzoek te blijven doen maar het doorvoeren van vernieuwingen is duur, ze kunnen er ook voor kiezen om "in de pas" te blijven lopen met de concurrentie.
R&D kleine kostenpost? Bij een bedrijf wat leeft van haar eigen innovativiteit en ontwikkelingen?
geloof ik geen drolletje van

//edit
R&D accounted for 17% of revenues in 2007.
In addition, about 65% of the NVIDIA's employees work in the R&D department.

Bron

[Reactie gewijzigd door himlims_ op 14 januari 2009 13:20]

We hebben het over kostenposten (expenses), niet omzet (revenues).

Heb je dáár ook cijfers van?

Veel kosten van chipproductie gaan zitten in de dure fabrieken en dure bronstoffen. Dat je minder mensen nodig hebt om die grotendeels geautomatiseerde fabrieken draaiend te houden verbaast me niets.
Als je niet eens weet dat de kosten van chipproductie worden gedragen door de fabs, niet door de fabless bedrijven (zoals Nvidia), dan blijft er weinig geloofwaardigheid over voor de rest van je betoog.

R&D is een van de grootste onkosten posten van een fabless bedrijf.

Jouw bewering dat het niets over revenues gaat maar over kosten, versterkt het argument dat het belangrijk is: revenue is een stuk groter dan opex, dus als het 17% is van de revenue dan is het nog een stuk groter van de opex.

[Reactie gewijzigd door newinca op 14 januari 2009 17:37]

Het klapje van Nvidea is misschien ook wel harder omdat AMD het tegenwoordig weer heel lekker doet in de GPU markt waardoor de marges van Nvidia dalen.
Dus klopt het wat hAI zegt. AMD heeft een omzetdaling van 25%, Intel 20% en nvidia 40%-50%. Ongeveer 20% kun je dus toeschrijven aan economische factoren (intel als eikpunt nemend) de rest dus aan concurrentie

[Reactie gewijzigd door Blastpe op 14 januari 2009 12:08]

Ja het verschil is inderdaad wel erg groot. Even te snel gelezen.

Wat H0lyGra1l klopt als je in geld spreekt. AMD heeft in geld uitgedrukt er minder last van, maar ze spreken hier over percentages. Als AMD een omzet heeft van 700 miljoen en 25% mist voelen ze dit minder wanneer je omzet 1,3 miljard is en je 25% mist. Maar het blijft een kwart van je omzet.

Ik denk dat investeerders niet direct zullen kijken naar bedragen (omdat het allemaal relatief is) maar meer naar procenten.

Waar steek jij je geld als investeerder liever in, in een bedrijf dat 40% omzetdaling heeft bij een omzet van 1,3 miljard of een bedrijf dat 25% omzetdaling heeft bij een omzet van 700 miljoen. Het tweede bedrijf loopt (theoretisch gezien) beter dan het eerste.
Ja alleen haal je omzet en winst nu door elkaar. Je kan als bedrijf 1 miljard omzetten en 1 miljoen winst hebben. Je kan ook 700 miljoen omzetten waarvan de helft winst is.

Natuurlijk kan het een investeerder schelen. Als je een omzetdaling heb van 40% zou ik me achter mijn oren krabben, een bedrijf met 25% daling is dan gezonder. Kijk natuurlijk maakt het wel uit of je het hebt over een bedrijf dat een hele hoge omzet hebt of een hele lage, maar ik denk in het geval van AMD/Ati/Intel dat dat niet meer van heel groot belang is, je praat al over enorme bedragen.
een goede investeerder kijkt wel iets verder als dat hoor.
hoe een bedrijf het doet relatief tot andere is vaak juist erg belangrijk, en de percentages van omzet stijging of daling zijn dan juist erg belangrijk.
In het het derde kwartaal van 2008 noteerde Nvidia een krappe winst van 61,7 miljoen dollar, of de winst ook halveert is nog niet duidelijk.
Waarschijnlijk zal de winst veel meer dan halveren (mogelijk/waarschijnlijk verlies). De vaste kosten ed blijven gelijk deze drukken find op de winst.
Aan de andere kant kopen die mensen geen videokaart omdat ze nou eenmaal elk jaar wat nieuws willen, maar omdat de spellen dat 'vereisen'

Maar de laatste tijd zie je dat nieuwe spellen relatief gezien helemaal niet zo veel vereisen, en daarmee is er dus ook veel minder reden om een nieuwe kaart te kopen.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True