Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

Na Intel en AMD komt ook Nvidia met een omzetwaarschuwing voor het vierde kwartaal van 2008. Eerder verwachtte de chipfabrikant nog een omzetdaling van 5 procent, nu is die prognose bijgesteld naar een omzetdaling van 40 tot 50 procent.

Nvidia Logo Nvidia heeft gewaarschuwd dat de omzet in het vierde kwartaal van zijn fiscale jaar, dat op 28 januari afloopt, wellicht de helft lager zal zijn dan de omzet in het vorige kwartaal. In november sprak de fabrikant nog van een kleine daling van omstreeks 5 procent, maar het ziet er naar uit dat de wereldwijde economische crisis Nvidia toch harder raakt dan verwacht . In vergelijking met de omzet van 897,7 miljoen dollar uit het derde kwartaal, zou een daling van 40 tot 50% procent een nieuwe omzet betekenen van tussen de 448,85 en 538,62 miljoen dollar. Vergeleken met het vierde kwartaal van het boekjaar 2008, waarin Nvidia een omzet realiseerde van 1,2 miljard dollar, is dat zelfs een daling van meer dan 50 procent.

De omzetdaling zou veroorzaakt worden door de verminderde vraag van zowel channel partners, die eerst van hun oude voorraden af willen, als consumenten. Nvidia is niet de enige hardware-fabrikant die een omzetwaarschuwing afgeeft; eerder berichtten ook chipfabrikanten AMD en Intel over verwachte omzetdalingen van respectievelijk 25 en 23,8 procent. In het het derde kwartaal van 2008 noteerde Nvidia een krappe winst van 61,7 miljoen dollar, of de winst ook halveert is nog niet duidelijk.

Moderatie-faq Wijzig weergave

Reacties (49)

Ja, het is voor hun lekker makkelijk om de "economie", en "de consument" de schuld te geven. Uiteraard heeft dat er mee te maken, maar ik denk niet dat dat het enige probleem was/ is. Als "de econimische crisis" er niet was geweest, hadden ze ook teruglopende winsten gehad.

-Hebben zij even "geluk" dat "de crisis" mooi samenvalt met de slechte verkopen van de GT200... Mooi excuus. Ze mogen ook wel eens een beetje bij zichzelf te rade gaan, en de hand in eigen boezem steken. Ze hebben die slecht verkopende energieslurpende GT200 chip toch echt zelf gemaakt. En laat dat nu net een chip zijn die ze heel erg veel geld en klanten gekost heeft.

Het is duidelijk dat ATi een groot marktaandeel van hun afgepakt heeft met hun HD4800 serie, omdat die een veel betere price-performance gaf dan de GT200 serie. En ook nog eens veel goedkoper te maken. En die chip was ook nog eens energiezuiniger. Mensen kochten liever een HD4870 voor 250 euro, of een HD4850 voor 175, dan een GTX260 192sp voor 300. En de GTX280 lieten ze helemaal "links liggen". Die kostte 550 euro toen hij gereleased werd. Die werd bijna niet verkocht. Afgezien van wat mensen die het snelste van het snelste wilden, ongeacht van wat het kost. Vervolgens kwam de HD4870X2, die sneller was dan een GTX280, en ook nog eens goedkoper. Dus ook met de 280's bleven ze zitten. Duur grapje.

Tevens is het natuurlijk zo dat de nForce moederborden/ chips na de komst van de i7 en X58 een stuk minder verkocht worden, wat ze ook in de portemonee voelen.

Dat R&D met minder vernieuwingen komt, zoals Sneezzer zegt, daar geloof ik niet zo in. Die projecten lopen veel langer dan een paar maandjes. Dus de komende tijd zul je er weinig van merken. Ik denk juist dat die afdeling heel belangrijk is, om in het spoor van de concurrent te kunnen blijven in de toekomst, dus ik denk niet dat ze hier snel op zullen bezuinigen.
quote: KGB007
Wat je zegt is niet helemaal zo. Wat jij zegt impliceert indirect dat AMD dan dus beter moet draaien. Dit is niet het geval want ook AMD heeft te maken met een omzetdaling.
AMD maakt ook nog CPU's. De GPU afdeling doet het wel erg goed.

[Reactie gewijzigd door Format-C op 14 januari 2009 11:57]

Vergeet niet het hele G84, G86 en G92 debakel, ruim een jaar door blijven leveren van foute mobile GPU's (willens en wetens) en uit eindelijk geheel geen oplossing bieden, dan alleen aan te raden over te stappen op de nieuw generatie.

Hiermee zowel OEM partners als consumenten zwaar benadelend. Als consument wetende een high-end laptop in huis te hebben waar de GPU fabriek af niet in in orde is en het elk moment kan begeven.

Persoonlijk hoop ik dat de consument Nvidia zal afstraffen door minder produkten te kopen waar Nvidia componentnen zijn verwerkt. Ik zal in iedergeval dergelijke produkten voorlopig links laten liggen. Gelukkig bied AMD/ATi op alle fronten uittekende alternatieven.
grappig dat je dat zegt, ik ben de ONgelukkige eigenaar van een 7600go waar gewoon nooit goede drivers voor zijn uitgebracht en ik dus NIET kan gamen op mijn zepto ultimate gamer, gvd 1700 euro uitgegeven en bij ieder spel knalt hij eruit zowel onder xp als vista!

ik koop dus nooit meer nvidia puur omdat ze verdomden goede drivers uit te brengen
Ik snap jouw frustratie, maar dit ligt niet geheel aan Nvidia. Evenals ATi/AMD ontwikkelt ook Nvidia geen drivers voor zijn mobile GPU's dit is geheel de verantwoording van de OEM fabrikant in jouw geval Zepto.

Ik zou zeggen duik even het forum in er is namelijk een website waar je aangepaste drivers kunt downloaden welke veelal wel werken.

Waar ik met mijn reactie op doelde is het fijt feit dat Nvidia ruim een jaar op de hoogte is van het fijt dat zij op een verkeerde manier GPU's hebben geproduceerd door gebruik van verkeerde materialen. Uiteindelijk doen zij hier niets aan. In mijn ogen is dit oplichting en dat mag Nvidia voelen in hun marktaandeel.

[Reactie gewijzigd door _Dune_ op 14 januari 2009 18:13]

Dat je voor correcte spelling niet naar Tweakers moet komen is al langer bekend.

Maar 'fijt' verdient toch wel een eervolle vermelding! Proficiat!

(ja ja, mod maar down. Maar vergeet niet dat ik me weldegelijk laat beinvloeden door spellingsfouten als ik, vb, een programmeur of verificatie ingenieur moet aannemen. Oog voor details, mijn beste.)
En ik vind het helemaal geen probleem dat iemand mij op mijn groffe fouten wijst. ;)
Dat siert u! :)
Het spijt me, maar de hele GTX200 serie is helemaal niet energieslurpend. In idle mode verbruiken de GTX200 serie kaarten aanzienlijk minder dan de HD4000 serie van ATI (rond de 20-30 watt), en onder load zijn ze qua watt/performance op z'n minst gelijk, zo niet zuiniger dan de AMD kaarten.
Zeker een hele stevige klap. Maar R&D is een van de weinige activiteiten waar je echt niet op kan bezuinigen. Zodra de markt weer aantrekt, kun je het je niet permiteren dat je concurrent voorop loopt. Ze kunnen alleen overleven door voorop te lopen.
En toch is R&D meestal het eerste waar dergelijke bedrijven op bezuinigen.
Ben je gek, NVIDIA weet wel beter. Misschien dat in de gewone zakenwereld het iets is waar op gekort wordt, maar als NVIDIA inhoudt op de R&D afdeling zullen ze binnen enkele jaren door AMD de markt uit geconcureerd worden.
Naast de economische stagnatie zijn er nog andere factoren te bedenken die bepaald niet in het voordeel van nvidia werken.

Toenemende aandacht voor milieu en het energieverbruik van computers leidt ertoe dat de afweging voor een geschikte videokaart anders gemaakt wordt dan eerder het geval was. Voor een machine waarop geen spelletjes worden gespeeld ben je met een kaart van 25 euro al klaar en die gebruikt dan bovendien ook maar een fractie van de energie.

Met de komst van digitale verbindingen naar de monitor zijn de analoge kwaliteitsverschillen ook verleden tijd. Nou is dat een factor waarop nvidia vroeger niet specifiek sterk was (dan koos je liever voor Matrox)., dus dat zou zelfs weer een klein beetje in hun voordeel kunnen werken.

Als ze niets te doen hebben kunnen ze wel eens werken aan een betere ondersteuning van installatie onder Linux. Dat geneuzel om in runlevel 3 een driver te moeten installeren..... Dat kan een heel stuk soepeler.
Laat ik het nog beter zeggen, op een pc waar niet op gegamed wordt kun je af met een onboard grafische kaart.

Ook voor het afspelen van HD-content kun je inmiddels af met een onboard chip (Nv8200 of Ati HD3200).
Voor een machine waarop geen spelletjes worden gespeeld ben je met een kaart van 25 euro al klaar en die gebruikt dan bovendien ook maar een fractie van de energie.
Daarom zijn de nieuwe kaarten van NVIDIA dan ook bijzonder zuinig in idle (<25 watt voor GTX280) :)
Dat is volgens mij alleen zo in combinatie met een nVidia moederbord MET onboard graphics. En bij 2D toepassingen neemt de onboard graphics het over.
Nee hoor, in dat geval heb je helemaal geen verbruik. Zolang je je (GTX200) GPU niet belast gaat de clocksnelheid flink omlaag en worden delen van de chip uitgeschakeld, waardoor er veel en veel minder stroom verbruikt wordt. NVIDIA had het zelf geloof ik over <25 watt, maar ik heb zo geen link. Het werkt gewoon hetzelfde als bij de CPU, die ook veel zuiniger is wanneer je niets (of niet veel) doet :)
[...]

Daarom zijn de nieuwe kaarten van NVIDIA dan ook bijzonder zuinig in idle (<25 watt voor GTX280) :)
Nu heb je het alleen over het stroomverbruik. Maar de verschillen in aankoopprijzen zijn natuurlijk ook niet mis!
En toch is R&D meestal het eerste waar dergelijke bedrijven op bezuinigen.
Ik denk dat dit bij Nvidia wel een beetje anders ligt. Je moet niet vergeten dat R&D echt een core business is voor een chip fabrikant. Als je hier teveel op gaat bezuinigen dan weet je zeker dat je de komende jaren achter de concurrend (ATI) aan gaat lopen, want het op een lager pitje zetten van je R&D heeft natuurlijk een sneeuwbal effect van een aantal jaren.
Het zal een kwestie zijn van efficientie vergroten van de productie/inzetten personeel en snijden waar nodig en hopen dat er komende tijd geen tegenvallers komen (zoals het bekende mobile GPU's verhaal).

Verder moeten ze ervoor zorgen dat ze blijvend werken aan het vergroten van je klantenkring. Zo zijn dit soort contracten: nieuws: 'Nieuwe iMacs en Mac Minis krijgen Nvidia's MCP79-chipset' altijd meegenomen.

En natuurlijk kan Nvidia niet alleen wijzen op de invloeden van buitenaf, maar ook het falen van hun eigen nieuwe high-end chips. Ze hebben gewoon een fout gemaakt door ATI zwaar te onderschatten (beetje het bekende hoogmoed komt ten val verhaal...). Het is duidelijk dat ze niet hadden verwacht dat de RV770 chip van ATI zo sterk zou zijn. Hierdoor hebben ze alle zeilen moeten bij zetten en met kunst en vliegwerk de boel op de rit moeten houden (prijs dalingen/revisie van de GTX260/GTX295, enz) Ik weet zeker dat ze het verloop van Q3 en Q4 van 2008 bij aanvang van 2008 anders hadden gezien (los van de economische crisis!) en de planning flink op de schop hebben moeten zetten t.o.v. wat ze eigenlijk van plan waren. Ze hebben hun focus moeten verleggen en dit heeft invloed gehad op de planning van 2009.

Ben heel benieuwd hoe ze het komend jaar ervanaf gaan brengen.

[Reactie gewijzigd door MW1F op 14 januari 2009 13:01]

Allemachtig dat zal een harde klap zijn. 40-50%
Ik denk dat de R&D wat minder snel met echte vernieuwingen zal komen de komende tijd.
Gelukkig zitten ze in een sector die ook snel weer aantrekt als het weer beter gaat met de economie.
De investering in R&D zal waarschijnlijk niet lager uitvallen. In deze sectoren is een lagere investering alleen wanneer:
-Het bedrijf heeft een monopolie positie
-Bedrijf is zo n beetje failliet.

Bedrijven hebben heel vaal een kas reserve die zeker wordt aangesproken in zulke tijden. Als Nvidia minder in R&D zou investeren dan lopen ze meteen achter op de directe concurrent(en). En als je eenmaal achter loopt dan is dat niet zo een twee drie goed te maken. Dit zou zelfs op de korte termijn een groter verlies in markt aandeel opleveren voor nvidia. :)

[Reactie gewijzigd door Praetextatus op 14 januari 2009 11:03]

Ik bedoelde eigenlijk niet dat ze minder aan R&D zouden doen maar dat er minder (echte) vernieuwingen de weg naar het eindproduct gaan vinden.
Uiteraard is het wel nodig om onderzoek te blijven doen maar het doorvoeren van vernieuwingen is duur, ze kunnen er ook voor kiezen om "in de pas" te blijven lopen met de concurrentie.
R&D zelf is vaak een (relatief) kleine kostenpost. Je hebt dus kans dat de R&D gewoon onverminderd doorgaat maar ze inderdaad gewoon niet elke vernieuwing gelijk in een nieuw product omtoveren, maar ze een paar vernieuwingen bij elkaar opsparen alvorens er een productiemodel van te maken; per saldo gaat de ontwikkeling dan even snel, maar zijn de stappen groter.
R&D kleine kostenpost? Bij een bedrijf wat leeft van haar eigen innovativiteit en ontwikkelingen?
geloof ik geen drolletje van

//edit
R&D accounted for 17% of revenues in 2007.
In addition, about 65% of the NVIDIA's employees work in the R&D department.

Bron

[Reactie gewijzigd door himlims_ op 14 januari 2009 13:20]

We hebben het over kostenposten (expenses), niet omzet (revenues).

Heb je dáár ook cijfers van?

Veel kosten van chipproductie gaan zitten in de dure fabrieken en dure bronstoffen. Dat je minder mensen nodig hebt om die grotendeels geautomatiseerde fabrieken draaiend te houden verbaast me niets.
Als je niet eens weet dat de kosten van chipproductie worden gedragen door de fabs, niet door de fabless bedrijven (zoals Nvidia), dan blijft er weinig geloofwaardigheid over voor de rest van je betoog.

R&D is een van de grootste onkosten posten van een fabless bedrijf.

Jouw bewering dat het niets over revenues gaat maar over kosten, versterkt het argument dat het belangrijk is: revenue is een stuk groter dan opex, dus als het 17% is van de revenue dan is het nog een stuk groter van de opex.

[Reactie gewijzigd door newinca op 14 januari 2009 17:37]

Aangezien de daadwerkelijke productie van de gpu chips wordt uitgebesteed aan derden, is het weinig verrassend dat het merendeel van de werknemers in de R&D zit. Idem voor het vroegere ATI.
Dit was vroeger zo in Europa, niet in de VS. Tegenwoordig met IAS (International Accounting standards) mag je geen reserves hebben voor slechte tijden... Je mag wel geld hebben maar geen potje dat heet slechte tijden en dat dan gebruiken om de resultaten op te krikken.
Het klapje van Nvidea is misschien ook wel harder omdat AMD het tegenwoordig weer heel lekker doet in de GPU markt waardoor de marges van Nvidia dalen.
Wat je zegt is niet helemaal zo. Wat jij zegt impliceert indirect dat AMD dan dus beter moet draaien. Dit is niet het geval want ook AMD heeft te maken met een omzetdaling.

Gezien de redelijke gelijkheid van omzetdaling denk ik dat het toch meer te wijten is aan economische factoren dan aan de onderlinge concurrentie.
Dus klopt het wat hAI zegt. AMD heeft een omzetdaling van 25%, Intel 20% en nvidia 40%-50%. Ongeveer 20% kun je dus toeschrijven aan economische factoren (intel als eikpunt nemend) de rest dus aan concurrentie

[Reactie gewijzigd door Blastpe op 14 januari 2009 12:08]

Ja het verschil is inderdaad wel erg groot. Even te snel gelezen.

Wat H0lyGra1l klopt als je in geld spreekt. AMD heeft in geld uitgedrukt er minder last van, maar ze spreken hier over percentages. Als AMD een omzet heeft van 700 miljoen en 25% mist voelen ze dit minder wanneer je omzet 1,3 miljard is en je 25% mist. Maar het blijft een kwart van je omzet.

Ik denk dat investeerders niet direct zullen kijken naar bedragen (omdat het allemaal relatief is) maar meer naar procenten.

Waar steek jij je geld als investeerder liever in, in een bedrijf dat 40% omzetdaling heeft bij een omzet van 1,3 miljard of een bedrijf dat 25% omzetdaling heeft bij een omzet van 700 miljoen. Het tweede bedrijf loopt (theoretisch gezien) beter dan het eerste.
Wat kan een investeerder de procenten schelen???

Het enige wat ze interessant vinden is absolute winst, de rest is bijzaak.
Ja alleen haal je omzet en winst nu door elkaar. Je kan als bedrijf 1 miljard omzetten en 1 miljoen winst hebben. Je kan ook 700 miljoen omzetten waarvan de helft winst is.

Natuurlijk kan het een investeerder schelen. Als je een omzetdaling heb van 40% zou ik me achter mijn oren krabben, een bedrijf met 25% daling is dan gezonder. Kijk natuurlijk maakt het wel uit of je het hebt over een bedrijf dat een hele hoge omzet hebt of een hele lage, maar ik denk in het geval van AMD/Ati/Intel dat dat niet meer van heel groot belang is, je praat al over enorme bedragen.
een goede investeerder kijkt wel iets verder als dat hoor.
hoe een bedrijf het doet relatief tot andere is vaak juist erg belangrijk, en de percentages van omzet stijging of daling zijn dan juist erg belangrijk.
Mij lijkt wel dat AMD minder last heeft van de omzet daling als Nvidia of Intel.
Hun procs zijn zoiezo altijd lekker laag geprijsd, en op GPU gebied van AMD/ATI zijn de prijzen ook niet echt hoog te noemen voor een leuk kaartje.

Vooral Intel in het hoge segment zal het wel wat zwaarder krijgen
Je moet toch eens uitleggen waarom laag geprijzde processoren en GPU's een teken dat ze geen last hebben van omzet daling?
Klopt niet, over de afgelopen 2 jaar heeft AMD Ati netto 20 miljoen winst gedraaid op de grafische afdeling en dat is exclusief R&D kosten. De consument is de grote winnaar, AMD zelf niet. Daar gaat het heel erg slecht mee, al jaren. Amd als geheel draait al jaren verlies.

[Reactie gewijzigd door sdk1985 op 14 januari 2009 19:18]

In het het derde kwartaal van 2008 noteerde Nvidia een krappe winst van 61,7 miljoen dollar, of de winst ook halveert is nog niet duidelijk.
Waarschijnlijk zal de winst veel meer dan halveren (mogelijk/waarschijnlijk verlies). De vaste kosten ed blijven gelijk deze drukken find op de winst.
Heeft die omzet daling dan niks te maken met verzadiging ? ik denk dat niet iedereen elk jaar een nieuwe video kaart koopt..
niet iedereen elk jaar maar een groot aantal mensen toch wel met enige regelmaat.
en de rest is ook geen onderdeel van nvidia's (en ATI's) vast GPU markt.
Aan de andere kant kopen die mensen geen videokaart omdat ze nou eenmaal elk jaar wat nieuws willen, maar omdat de spellen dat 'vereisen'

Maar de laatste tijd zie je dat nieuwe spellen relatief gezien helemaal niet zo veel vereisen, en daarmee is er dus ook veel minder reden om een nieuwe kaart te kopen.
Dat is een behoorlijke omzet daling. Het is ook niet te hopen dat ze teveel op de R&D kosten gaan bezuinigen.
In het het derde kwartaal van 2008 noteerde Nvidia een krappe winst van 61,7 miljoen dollar, of de winst ook halveert is nog niet duidelijk.
Ik vraag mij af of ze de helft van de winst ,30,5 miljoen dollar, wel kunnen halen. Aangezien ze waarschijnlijk nog niet zoveel kostenreducties hebben gedaan. Deze komen waarschijnlijk de komende tijd pas en hoop voor de medewerkers dat er geen ontslagen gaan vallen.
Ik snap niet dat er uberhaupt nog winst kan gemaakt worden.
In het derde kwartaal maakte Nvidia 897,7 miljoen dollar omzet en 61,7 miljoen dollar winst. Dus de kosten waren (897,7 - 61,7) 836 miljoen dollar.
Als ze een omzet draaien van 50% wil dit zetten dat ze een omzet zullen behalen van (897,7*0.5) 449 miljoen dollar. Als we de kosten gelijk laten kom je uit op een verlies van (449-836) 387 miljoen dollar.
Laten we aannemen dat Nvidia wel degelijk een scenario als deze kon bedenken en ze zo veel mogelijk de kosten proberen te drukken hebben en de kosten tot een miniumum konden beperken. Als ze break-even willen gaan draaien moeten ze 449 miljoen dollar kosten hebben. De kosten moeten dus ook met (449/836) 54% dalen. Ik zie dit Nvidia niet behalen en dus zal er geen winst maar verlies gedraait worden.
die 387 miljoen dollar zijn niet de vaste kosten.
Waarschijnlijk is het overgrote deel van die kosten variabel aan de productie.
Als ze dus minder produceren omdat ze minder verkopen zal de omzet en de kosten omlaag zakken (en ook de winst)

Op die manier kunnen ze evengoed winst maken en is het heel goed mogelijk dat ze gemakkelijk breakeven draaien
Betekent dit nu ook dat de producten van Nvidia misschien goedkoper worden omdat ze wel willen blijven verkopen?
Juist, zoals de voorbije 3 kwartalen al het geval was. Veel lager kunnen de prijzen niet meer gaan van de grafische kaarte van Nvidia. Moest Nvidia zijn high end kaart aan de prijs kunnen verkopen die het voor ogen had, ging het er veel rooskleuriger uitzien (voor Nvidia). Maar hier heeft AMD flink wat roet in het eten gegooid.
Ik denk dat IEDEREEN AMD mag bedanken. Zonder AMD hadden we dubbel zo veel betaald voor de Nvidia high end en dubbel zo veel voor de Intel high end. (En misschien ging de Intel high end helemaal niet zo high end zijn, zonder AMD ging de core architectuur misschien helemaal niet gelanceerd worden)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True