Nvidia's kwartaalomzet en -winst stegen met honderden procenten door AI-gpu's

Nvidia behaalde in het vorige kwartaal een recordomzet en -winst. Dat kwam vooral door een explosieve stijging van gpu's voor datacenters waar kunstmatige-intelligentietoepassingen op draaien.

Nvidia haalde in het tweede kwartaal van dit jaar een omzet van 13,51 miljard dollar, omgerekend zo'n 12,46 miljard euro. Dat is een stijging van 88 procent ten opzichte van het vorige kwartaal en zelfs 101 procent tegenover hetzelfde kwartaal een jaar geleden. De nettowinst steeg nog harder; die ging ten opzichte van vorig kwartaal met 203 procent omhoog naar 6,2 miljard dollar, wat zelfs een stijging van maar liefst 843 procent is ten opzichte van hetzelfde kwartaal in 2022.

Nvidia kwartaalcijfers Q2 2023

De stijging is vooral te danken aan veel hogere leveringen in de datacenterafdeling van het bedrijf. Het gaat dan niet alleen om directe leveringen van gpu's aan datacenters, zoals modellen met een H100-gpu, maar om het hele ecosysteem met ook Mellanox-technologieën waarop Nvidia's AI-software draait. "Dit kwartaal meldden grote clouddienstproviders hun eigen enorme Nvidia H100-AI-infrastructuur", zegt ceo Jensen Huang. Hij zegt dat 'de race rondom generatieve AI' is begonnen.

Nvidia's resultaten overtroffen de verwachtingen van analisten, maar komen niet helemaal als een verrassing. In mei bleek al dat het bedrijf een beurswaarde van meer dan een biljoen dollar haalde. Het bedrijf gaf kort daarvoor al een veel betere winstvoorspelling af dan analisten daarvoor al dachten. Het bedrijf zei eerder dit jaar op de Computex-beurs al dat het zich meer wilde gaan richten op het inrichten van complete datacenters voor het trainen en draaien van AI-modellen, naast het leveren van gpu's. Tweakers schreef daar eerder al een achtergrondartikel over.

Door Tijs Hofmans

Nieuwscoördinator

24-08-2023 • 14:22

82

Reacties (82)

Sorteer op:

Weergave:

Die vallen ook steeds met hun neus in de boter 😅 Droogt de crypto mining op komt AI weer alles goed maken.

Minder leuk voor mij gezien ik de high end GPU prijzen niet wil betalen, maar met dit soort winsten zal dat dus niet snel veranderen.
Jensen zet al 10 lang jaar zeer sterk in op deep-learning. Hoewel het een arrogante kerel is die de hoofdprijs vraagt voor zijn producten, heeft Nvidia hier gewoon een zeer lange termijn plan gehad die succesvol is geweest en nu is het goud waard.
Goed, maar dat blijft altijd een gok. Ze hebben hier volop op ingezet, maar het is op voorhand moeilijk te voorspellen hoe succesvol die technologie uiteindelijk wordt.

Ook de timing van dit alles komt echt heel goed uit. Net wanneer de crypto hype weg is, en er terug voldoende productie capaciteit is, komt AI echt van de grond. Beter kan je gewoon niet mikken.

Hier zit natuurlijk hard werk en visie achter om dit mogelijk te maken, maar er is toch ook echt wel sprake van 2 onverwacht grote golven waar ze op kunnen meeliften.
Is natuurlijk niet helemaal zo onverwacht. Naast games hebben ze bijv. in 2007 cuda gelanceerd. Het concept parallel rekenen is al een tijdje here 2 stay.

BitCoin was, iig voor mij, wel een verassende toepassing maar AI niet echt.

Als ik het goed begrijp zijn de meeste concepten al redelijk oud en was het wachten op ofwel krachtigere hardware ofwel wat slimme truukjes ter optimalisatie. Volgens mij was het een combinatie van beide
Maar dat AI het beste werkt op een GPU was toch ook wel verrassend voor mij. Waarom draait alles toch zo goed op een GPU?! Waarom geen CPU of iets helemaal nieuws wat de CPU en GPU markt niet ten nadele is... ?
Draait allemaal om parallelle berekeningen en geheugen access/snelheid. Een cpu kan er maar een paar tegelijkertijd en geheugen access is langzamer.
Een GPU heeft duizenden compute cores die ook heel dichtbij snel geheugen staat.
AI berekeningen zijn in principe hele simpele berekeningen. Net als pixel of vertex berekeningen voor graphics. Daarom zijn gpus hier geschikt voor.
De reden dat het zo goed parallel kan draaien is dat het relatief simpele en geisoleerde berekeningen zijn.

Stel je hebt een lijst van 1000 random europese steden. 500 personen pakken elk 2 steden en berekenen hoelang het rijden is (incl steden op de route). Die 500 personen kunnen dit taakje volledig zelfstandig uitvoeren.

Een CPU met 8 cores kan, zonder hyperthreads, 8 van dit soort berekeningen tegelijkertijd uitvoeren.

Het CPU concept werkt perfect voor grote complexe berekeningen. Hoe kleiner en simpeler de geisoleerde berekeningen zijn hoe meer % overhead (stoppen en starten vd job). Na een tijdje is een gpu dus flink efficiënter

[Reactie gewijzigd door Mellow Jack op 22 juli 2024 15:58]

Iedereen die de hoofdprijs kan vragen zal dat doen. Jij ook denk ik.
AI komt niet Intel of AMD rijk maken. nVidia heeft heel goede beslissingen genomen die nu wat opleveren.
Ik zeg toch niet dat ze hier per ongeluk zijn gekomen? Het is alleen opvallend hoe dicht het elkaar opvolgt en daar komt geluk bij kijken. Ze hadden ook een paar jaar “droogte” kunnen treffen.
Beslissingen die ze konden nemen door de financiele voorsprong die ze hebben verkregen door de desktop markt uit te buiten. -O-
Nee, de concurrentie is gewoon achter gebleven. AMD heeft hardwarematig ook de ai-kunstjes wel in huis, ze hebben de software alleen nooit zo grondig aangepakt als Nvidia. CUDA is ondertussen een begrip en kom je op diverse plekken tegen, van ROCm heeft nog bijna niemand gehoord.
AMD had tot voor kort maar een fractie van de omzet van Nvidia en die was naast GPU's al aan een tijdje bezig met CPU's en in beide markten de 2de speler.

Niet zo raar natuurlijk dat men wel van CUDA heeft gehoord, als Nvidia's "marketing" budget al groter was dan AMD's totale omzet.
Ik wou een reply geven, toen werd het volgende artikel gepost.
nieuws: AMD neemt Franse AI-start-up Mipsology over
Zoals dat artikel ook aangeeft, het is heel zeldzaam dat AMD een softwarebedrijf overneemt. Maar ze moeten wel, want ze lopen gewoon achter op software gebied.
Intel had nog veel meer geld en bereikt daarmee... Niets?
20 jaar dominante CPU speler? Pas vrij recent dat voor het eerst sinds de jaren 90 Intel's positie aan het verzwakken is. Welke nu met veel geld zich de GPU markt in aan het werken is.
OK, met "niets" bedoelde ik "niets" op gebied van AI. En eigenlijk alle markten behalve waar ze al sinds dertig jaar zijn. ARM hebben ze opgegeven, videokaarten valt nog te bezien maar loopt op moment niet goed, AI is niets, productieprocessen lopen achter op concurrentie, Mobileye loopt matig.
Dat is een flinke stijging.

De vraag voor Nvidia zal denk ik worden of ze nog wel de resources willen stoppen in hun andere takken, of dat dit soort leveringen zo ontzettend goed lonen dat de andere takken minder aandacht krijgen. Wij consumenten zien natuurlijk liever aandacht voor de ouderwetse desktop GPU's, maar als dat straks nog maar een klein marktje is voor Nvidia, schieten ze er weinig mee op dit in stand te houden.

Gelukkig is een verbetering op het ene vlak vaak ook goed voor de andere vlakken, dus we kunnen misschien wel meeliften op de R&D van AI-gpu's.
Nu zijn er duizenden startups die iets met ai doen, volgend (x) jaar hebben die hun 'end of runway' bereikt en zal de hype waar iedereen in moet investeren anders/voleassen zijn.
Plus dat volgend jaar iedereen die er iets mee kan/wil doen zijn hardware gekocht heeft. Nieuwe / snellere professionele chips hebben een lifecycle van enkele jaren, dus je kan er vergif op innemen dat het resultaat volgend jaar nog zeker positief is, maar wel 400% lager dan dit jaar. Waarop de buurskoers zal dalen naar het niveau van een half jaar geleden.
Ik denk het niet, voor AI heb je (op dit moment) nooit genoeg power, dus elke 1a2 jaar een nieuwe GPU die weer sneller is kan gewoon. Meer cuda cores, meer ram, etc.
Maar we zitten nu nog in de opgaande lijn van de AI hype. Iedereen wil op de bandwagon zitten, en iedereen heeft GPUs nodig. Als de onvermijdelijke correctie komt zullen er zeker een aantal partijen zijn die succesvol zijn en nieuwe gpu's nodig hebben, maar de vloed aan nieuwe partijen zal sterk afnemen en een flink aantal zal failliet gaan. De markt wordt dan overspoelt door oude gpus die nog zeer bruikbaar zijn. En dus zal de waanzinnig stijging in winst bij nvidia ook een correctie ondergaan.
Er komen nog veel meer use cases aan de komende jaren, met daarbij nieuwe startups. Dat denk ik omdat AI processing steeds goedkoper wordt, waardoor er nieuwe verdienmodellen zullen ontstaan.

Maar het kan beiden kanten op gaan natuurlijk.
Nou ik denk dat je gelijk hebt al zal er ook zeker wel een correctie komen…
Hetzelfde met (traditionele) supercomputers. toch worden ook die niet elke 2 jaar vervangen voor een geheel nieuwe, snellere. Of uberhaupt uitgebreid met meer cores.
Door de bank genomen, je koopt zo'n ding installatie (voor een paar honderden miljoenen), je doet er 5-10 jaar mee.
Het is al begonnen hoor. Waarom denk je dat deze generatie GPU van zowel AMD/Nvidia zo belabberd zijn? De consumentenmarkt is insignificant voor ze nu, alle focus is op de AI.
Nvidia gaat 10× zoveel binnenharken aan AI binnenkort als aan die lullige consumentenkaartjes. Als de prijzen daar weer onder druk komen te liggen zie ik het best gebeuren dat Nvidia zegt dag dag bekijk het maar met je desktop. Tenzij ze het dan kunnen gebruiken als dump voor slecht gebinde AI-chips.

Meeliften op de R&D van AI-gpu's zal vast ook gedeeltelijk gebeuren. Weet niet hoe groot het voordeel werkelijk is voor de consument.
Gaming is nog steeds ruim een kwart van Nvidia's omzet, en ze blijven zich hevig inzetten voor gaming technologie. Zowel op het gebied van AI als op het gebied van graphics waar ze al jaren onderzoek doen naar path tracing, wat voor de volgende generatie games interessant word.
Als Nvidia AI erbij doet, dan is dat vooral erbij. Ze gaan niet al hun eieren in één mand leggen, dat is veel te risicovol.
Ze gaan niet al hun eieren in één mand leggen, dat is veel te risicovol.
Juist - 2 kippen die eieren van edelmetaal leggen is altijd beter dan 1. Die extra resources kunnen ze ook aannemen - ze hebben wel wat in kas nu.... :9
En dan nog durven ze woekerprijzen te vragen voor consumentenhardware. Ze zouden anders denk ik zeker in staat zijn om met die miljardenwinsten van de AI hardware de consumentenhardware te kunnen sponsoren.
Ze zouden anders denk ik zeker in staat zijn om met die miljardenwinsten van de AI hardware de consumentenhardware te kunnen sponsoren.
En waarom zouden ze dat doen? Het is een bedrijf met winstoogmerk geen finaltropische instelling. Zolang concumenten het bereid zijn te betalen en ze een sweet spot hebben bereikt tussen afzet en marge, dan zullen ze dat gewoon blijven behouden. Net zo lang tot er een concurrent komt, die ze dwingt dit te veranderen.
Altijd fijn zo'n pandemie / hardware tekort om dan tot de conclusie te komen dat consumenten bereid zijn meer te betalen en je geen reden ziet om de prijs weer te laten zakken want het verdiend wel lekker.
Zeker, en uiteindelijk zijn het de consumenten die het nu in stand houden. Als er niet verkocht wordt, dalen de prijzen uiteindelijk. En ik doe er zelf niet aan mee, want ik weiger dit soort bedragen te betalen. Maar helaas, zijn er dus voldoende mensen die het wel bereid zijn te betalen.
Je redenatie gaat niet helemaal op, want de prijzen zijn het laatste halfjaar wel degelijk stevig gezakt. Zie bijvoorbeeld dit eerdere artikel: nieuws: Videokaartprijzen dalen stevig door: honderden euro's goedkoper dan b...
Ja zo werkt een puur kapitalistisch systeem.

Maar de opzet zou beter moeten zijn. Genoeg bedrijven die een win-win-win principe aanhouden. Bedrijf wint, leverancier wint, klant wint.

In het huidige winst maximalisatie end-game kapitalisme is het meer een win-lose-lose. Daar is de samenleving niet bepaald mee gebaat.
Nvidia heeft net zoals andere bedrijven, een beperkte hoeveelheid wafer capaciteit bij TSMC. Die contracten zijn verder geheim, maar er is duidelijk een productielimiet omdat er een capaciteitslimiet is die verdeeld is. Nvidia lijkt er nu voor te kiezen om meer van hun capaciteit te steken in Hopper GPU's omdat ze daar overduidelijk meer aan verdienen.

Speelt ook mee dat Nvidia nog steeds met enorme voorraden aan GA104 en GA106 chips lijkt te hebben. De vervangende AD106 en AD107 chips zijn niet of nauwelijks beter te noemen. Nvidia heeft dan ook weinig motivatie om goedkopere AD106 of AD107 chips (denk RX4060Ti etc) te produceren die vervolgens weinig willen kopen, terwijl ze ook nog de vergelijkbare RTX3060Ti en RTX3060 hebben liggen.

In de hogere segmenten hoeft Nvidia hun AI tak, de consumenten ook niet te sponsoren. RTX4070, RTX4070Ti en RTX4080 hebben zeer hoge adviesprijzen gekregen die gemakkelijk verlaagd kunnen worden door Nvidia. Maar waarom zou Nvidia de prijzen verlagen? Ze verkopen misschien niet geweldig, maar ze worden wel gekocht.

Als je dit allemaal niet bevalt, tja dan moet je wat van AMD kopen. We hebben de afgelopen maanden meer dan genoeg goede aanbiedingen voor de hele RDNA2 generatie gehad. En de RX7900XT is de laatste tijd ook voor iets redelijkere prijzen te vinden. Vervolgens lijkt morgen de RX7700XT en RX7800XT aankondiging te komen.
Ik heb AMD geprobeerd voor een jaar. In mei vorig jaar een Powercolor Red Devil 6700XT gekocht bij Alternate voor 700 EUR. Daarna bijna een jaar gesukkeld met drivers die constant crashten of werden overschreven door Windows, en dan tijdens de hittegolf in juni van dit jaar gemerkt dat mijn kaart meer dan 100 °C werd in de hotspot met een delta van rond de 30 °C. Heb hem binnengebracht voor garantie, 6 weken gewacht op goedkeuring retour en dan gelukkig het volledige bedrag mogen gebruiken voor een nieuwe 4070.
Als je hotspot temperatuur 100C of meer word, dan kan je videokaart gaan crashen ja.
Dat is een fout van de fabrikant, niet AMD. ;)
Ja, dat snap ik. Maar ik heb AMD dus wel degelijk geprobeerd, heb er mijn conclusies uit gehaald, en ik ben zelf blij dat ik zonder te hebben moeten bijbetalen een leuke 40% boost heb gekregen in performance en nu ook kan gebruik maken van technologiën zoals DLSS en RTX.
Heb zelf de rx 6800 en ik heb totaal geen issue's zoals jij die omschrijft. Nu sta ik ook geen 100c hotspots toe, alles blijft onder de 80c hier. Als ik dit hoor, denk ik dat je airflow niet geweldig is geweest.
Het was een PowerColor kaart. Die hebben wel meer problemen gehad met koeling: die maakten ook de Reference 7900XTX kaarten die vapor chamber problemen hadden, en ook hun Red Devil 7900XTX kaarten hadden problemen met oververhitting.
Waarom zou de ene tak de andere sponsoren? Leuk voor jou, maar bedrijfstechnisch slaat dat nergens op.
Ehm, de logica om dit te doen ontgaat me.

Daardoor zou Nvidia minder winstgevend worden.

Het idee van een bedrijf is winst maken, geen liefdadigheid naar consumenten.

Daarnaast liggen die prijsstijgingen natuurlijk niet alleen aan nvidia, maar ook aan inflatie, opgelopen grondstofprijzen en toegenomen arbeidskosten. Daar hebben alle fabrikanten nu eenmaal last van

En de laatste maanden, sinds de chiptekorten afgenomen zijn, zijn de prijzen ook alweer een stuk gedaald. Zie nieuws: Videokaartprijzen dalen stevig door: honderden euro's goedkoper dan b...

[Reactie gewijzigd door wildhagen op 22 juli 2024 15:58]

Als niemand het koopt zakken ze vanzelf in prijs. Maarja fomo
Fomo is hier niet van toepassing, fomo is bang zijn dat je de boot mist die andere (wel) nemen.

Misschien bedoel je erbij (maar waarbij dan) willen horen...
De nieuwste games kunnen draaien, UE5 etc. Vooral als je streamers ziet met hun high end specs etc
Je moet net als bij Apple enkel de aandelen kopen en niet de producten ;)
Ik denk eerder dat ze gaan stoppen met consumentenhardware.. of het minstens afsplitsen. De marges zijn er waardeloos en je kan de FAB tijd wel beter gebruiken nu.
Beperkt jouw werkgever wel de mogelijke winstmarges op een veel lager percentage? Of zijn de marges lager omdat jullie een product of dienst leveren waar klanten niet meer voor over hebben?
Het helpt ook niet dat er nog steeds consumenten zijn die veel te dure videokaarten kopen. Als je toch moet kopen neem dan AMD (of een alternatief?) zodat ze wat beter en eerlijker kunnen concurreren
Als je toch moet kopen neem dan AMD intel
voor de 0ers hier:
kijk even naar de 55/6500 van amd tegenover de oude 480/580/590
als je echt prijs concurrentie wil zien met vooruitgang, onder de 300 eu , is intel je best bet atm

(okay, de rx6600 is sinds mei dan ook misschien schappelijk, maar als je ziet waar dat begon...)

[Reactie gewijzigd door JWL92 op 22 juli 2024 15:58]

Goh veel te duur, ik heb nu een 4090 build in elkaar gestoken en ja, dan kom je over de 4k in totaalprijs.

Maar 1x om de drie - vier jaar 4k uitgeven voor je hobby? Dat vind ik best schappelijk eerlijk gezegd :|
Een marge van 70%, dat is echt gigantisch. Zelfs een non-GAAP nettowinst van 50%. Je zou verwachten dat de aandelenmarkten hiervan smullen, maar dat valt vies tegen. Ze kunnen momenteel ook gewoon vragen wat ze willen. Voor AI en in het hogere segment videokaarten is er eigenlijk geen concurrentie. Uiteindelijk is de consument de dupe van de absurde prijzen en zijn de aandeelhouders spekkoper.
Google zou zich eens achter de oren moeten krabben of ze niet gewoon blades van hun AI cores moeten verkopen, ze hebben de op een na meest volwassen oplossing. CUDA is natuurlijk een heel groot voordeel, maar kwa sparse inference heeft de Google hardware voordelen die dat gedeeltelijk recht kan trekken.

Maar goed, dat hadden ze dan vorig jaar moeten doen ... de hype gaat niet zo heel lang meer duren.
Vandaar ook de idioot hoge prijzen voor hun gaming GPU's.. Daar ligt even niet de prioriteit en die capaciteit hebben ze nodig om zich op AI-gerelateerde productiecapaciteit te kunnen richten.. Dat de gaming GPU's minder verkopen is dus een bewuste keuze en wordt ruimschoots gecompenseerd door de hogere prijzen en verkoop van AI-gerelateerde chips..

Uiteindelijk komen ze ermee weg omdat AMD (en Intel) ook geen echte concurrentie biedt.. Die hebben geen producten die met de beste GPU's van Nvidia meekunnen en drijven hun eigen prijzen ook gewoon op.. De top AMD videokaart kost nu ook ruim boven de 1000 euro, dat was nog niet zo heel lang geleden ongehoord..

Het blijven voorlopig geen leuke tijden voor PC gaming enthousiastelingen.. Als deze AI-hype doorgaat (en daar lijkt het wel op) hoeven we namelijk van de volgende generatie gaming GPU's ook niet veel te verwachten.. Waarschijnlijk ook geen prioriteit en net zo achterlijk duur.. Mijn RTX 3080 zal het nog een lange tijd vol moeten houden vrees ik, tenzij straks een RTX 5060(Ti) ofzo genoeg verbetering biedt qua prestaties tegenover een prijs die ik ervoor over heb (niet meer dan 800-900 euro)..
Prachtige cijfers natuurlijk, zeker als je aandelen in het bedrijf hebt. Maar ergens heeft 't ook een raar smaakje als je bedenkt dat hun GPU's alleen maar duurder worden, wat blijkbaar niet per definitie nodig was om de kosten te dekken blijkt nu.
Hun GPUs worden juist steeds goedkoper, zje nieuws: Videokaartprijzen dalen stevig door: honderden euro's goedkoper dan b...

En dat ze duur waren was niet alleen bij nvidia, ook AMD had hun prijzen fors omhoog gedaan.

Werd primair veroorzaakt door chiptekorten, maar later ook door inflatie, hogere prijzen voor grondstoffen en halffabrikaten, duurder transport, oplopende energieprijzen en door oplopende personeelskosten.

De laatste maanden dalen de prijzen alweer stevig gelukkig.

[Reactie gewijzigd door wildhagen op 22 juli 2024 15:58]

Daar ben ik het niet mee eens. De RTX 3080 kostte tijdens de release $699, terwijl de RTX 4080 $1199 kostte tijdens de release. Dat ze dan vervolgens na de release goedkoper worden is niet zo vreemd.

De chiptekorten kan een deel van de prijsverhoging veroorzaken, en inflatie misschien ook wat. Maar je kunt niet én de prijsstijging op o.a. deze zaken gooien, en tegelijkertijd je winst als multinational zien verdubbelen. Dan heb je ook (toegegeven, handig) gebruik gemaakt van de inflatiel. Of "graaiflatie" zoals sommigen dat noemen.

RTX 3080 price history:
https://bestvaluegpu.com/...-price-history-and-specs/

RTX 4080 price history:
https://bestvaluegpu.com/...-price-history-and-specs/
wat blijkbaar niet per definitie nodig was om de kosten te dekken blijkt nu.
Doe nou niet of je recht hebt op korting op een (consumenten) GPU omdat ze veel verdienen aan een andere markt (AI), want dat is nergens voor nodig. Als er aan de hand van deze cijfers iets goedkoper moet worden dan is het de AI spullen voor de zakelijke markt(en) want daar maken ze duidelijk de winst op.

Zou wat zijn als een bedrijf 8 miljard verdient met bedrijfstak A dat geld in de vorm van korting op producten van bedrijfstak B moet toepassen. Dan krijg je dus geld toe bij het halen van een nvidia (consumenten) GPU :P

Beetje alsof je werkgever je salaris omlaag mag halen omdat je te veel spaart.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:58]

AI is niet zo heel veel anders als crypto daarvoor, een gevaarlijke markt voor NVIDIA. Weer een klein zetje van consumenten naar consoles en Apple. Met consoles kunnen ze ooit wel weer wat verdienen, maar elke extra Apple gebruiker is een gevaar voor de lange termijn.

Dus ja, misschien hadden PC gebruikers een cadeautje verdient.
Doe ik dat dan? Nee.

Het gaat om de hele breedte van winst maken. Of ze nu consumer GPU's of AI-GPU's verkopen, de chips maken moeten ze toch.
Je wekt iig de suggestie dat het goedkoper moet/kan omdat ze met een andere bedrijfstak veel verdienen. Maar zo werkt het helaas voor jou en gelukkig voor bedrijven niet...
Ik snap jou bedrijfseconomische gedachten echt niet.
Of ze nu consumer GPU's of AI-GPU's verkopen, de chips maken moeten ze toch.
Je stelt voor dat ze de consumer-gpus met verlies moeten verkopen omdat ze die "toch moeten maken"?
Ze moeten die helemaal niet maken.
Opmerkelijk dat 50% van de omzet winst is.
Dat klinkt als een woekerwinst / het hanteren van woekerprijzen voor hun producten.
Moet een toezichthouder niet ingrijpen?

____
{speculatie} Wellicht is dat de reden dat Dell er voor koos in hun 500Hz monitor:
geen Nvidia G-SYNC, .. [en] ook niet over Nvidia's Reflex Latency Analyzer.
in te bouwen.
nieuws: Dell brengt 500Hz-monitor uit in Europa

@deepvreezo heb je bij Dell navraag gedaan waarom er geen Nvidia ondersteuning op de monitor zit, ik ben benieuwd. 🙂
Woekerwinst of hanteren van woekerprijzen is op zichzelf niet verboden. Het idee is dat de markt je wel afstraft: ik koop mijn brood wel bij de concurrent als jij 10 euro voor een brood vraagt.

Het is problematisch als je exorbitante winsten maakt door misbruik van je machtspositie. Alle bakkers zijn failliet, ik ben de enige supermarkt in de wijde omtrekt, nú zijn de broden tien euro per stuk.

Probleem is natuurlijk: toon maar aan dát NVIDIA een machtspositie heeft, zijn er echt geen andere leveranciers van zulke GPU's? En daarnaast heb je een benchmark nodig van wat dan een 'normale' prijs zou zijn van dergelijke hardware. Enkel stellen dat "50% wel veel winst" is, gaat je niet redden. Ik weet zeker dat NVIDIA kan aantonen dat een groot deel daarvan eigenlijk geen pure winst is maar alsnog kosten dekt, voor nieuwe investeringen gebruikt wordt enzovoorts.
https://globalcompetition...article/excessive-pricing
Ik zie Nvidia nog best weggaan van de desktop markt op termijn, ze verdienen te goed aan allerlei andere zaken. AI wordt groter en groter, en Nvidia zal daar veel meer gaan verdienen op termijn, als is er een hype die afzakt.

Dan is het een AMD en Intel feestje, en Intel speelt nog niet echt mee. Dan zul je pas woekerprijzen zien.
Ik verwacht dat ontwikkelaars "thuis" oefenen met hun model ontwikkeling en daarna naar Cloud gaan voor schaal.
Als je thuis geen NVIDIA kaart hebt, kan het zijn dat de algoritmes beter draaien op kaarten van concurrenten, dus ik verwacht niet dat Nvidia de desktop/laptop markt uit eigen wil zal verlaten.

En vergeet ARM niet in dit verhaal. Nvidia moet wel met AI aan de slag anders verslaat de ARM techniek Nvidia in een paar jaar.

Nu is het wachten op een slimme wiskundige die een totaal andere manier van AI ontwikkeling bedenkt waar modellen uit rollen die minder rekenkracht nodig hebben. En waarbij model updates veel minder rekenkracht vereisen.

[Reactie gewijzigd door djwice op 22 juli 2024 15:58]

je merkt het nu al dat nvidia aan het drukken is naar cloud gaming. Het zou mij niets verbazen dat over enkele jaren pc gamen of heel duur is of niet meer relevant is voor nvidia. Kaarten zullen ze voorlopig blijven uitgeven voor ontwikkelaars daar twijfel ik niet aan.

De enige twee punten waarom ik niet cloud game is;
ik heb een game pc
er missen games op cloud gaming die ik graag speel, zowel op cloud als GFN.

Als dat gat gevuld is mijn game pc is out dated dan zie ik mijzelf nog wel over gaan naar cloud gaming
Cloud Gaming vind ik behoorlijk ruk eerlijk gezegd. Heb het 2-3× geprobeerd, maandje hier maandje daar.

Torenhoge latency, lage refresh rate, beperkte keuze en nog steeds behoorlijk prijzig. Het is een optie indien het de enige optie is.
Goh ik zou misschien de vergelijking anders maken: Ik ben een supermarkt die ingezet heeft op een bepaalde grondstof waarmee ik (dure) broden kan maken die 10x meer vullen dan die van de concurrent (puur van een efficiëntiestandpunt genomen). De rest deed dat niet. Nu door omstandigheden, is er veel nood aan dat brood en kan de rest dit niet bieden dus ik kan prijzen vragen die ik wil.

Nvidia heeft inderdaad nu heel veel macht maar ze hebben wel de juiste strategische beslissing gemaakt om vandaag op dit punt te geraken. De andere spelers niet. Nu dat ze de vruchten er van plukken kan je hen moeilijk van misbruik maken van machtspositie vind ik.
Dat is een heel scherp aanvullend punt: wat is de markt? Gaat het om alle producten die normaal brood genoemd worden, of alleen zuurdesem volkoren spelt meergranen? Als het dat eerste is, dan is dat geverfde supermarkt brood concurrentie voor jouw prachtbrood en heb jij geen machtspositie.

Je ziet dit bij smartphones. Heeft Apple met de iPhone macht? Als je alle mobieltjes bekijkt dan zijn ze getalsmatig een kleine speler. Definieer je een markt voor high end smartphones dan is Apple een grote jongen. En als je zegt, high end en design dan is Apple verreweg de grootste. Wie heeft gelijk?
Als essentieel voedsel te duur word grijpt de overheid in, want mensen worden dan heel erg boos. Bij luxe artikelen is er die noodzaak niet. Dat maakt het verschil.
In een B2B markt mag je verwachten dat kopers weten wat ze doen. Als een product 100 kosten en 1000 oplevert dan ga je niet onderhandelen om op 70 uit te komen. En als de concurrentie niet biedt wat je nodig hebt dan is 100 de prijs. Dan wil je als koper zo snel mogelijk je spullen hebben zodat het zo snel mogelijk gaat renderen.
Dat heb ik niet gedaan, maar ze hebben een zustermodel dat wel G-SYNC heeft, dus ik denk niet dat Dell met Nvidia heeft gebroken :). Dat G-SYNC model heeft een echte hardware G-SYNC scaler, het is niet alleen 'compatible' zoals de meeste schermen met een G-SYNC labeltje, en dat maakt een scherm een stuk duurder. Dat zal zijn waarom Dell ook een model met een andere scalerchip uitbrengt. Meestal zou een scherm in die prijsklasse nog wel worden gecertificeerd als G-SYNC compatible, maar ja daar heeft Dell dus het andere model al voor.
Dank je voor de uitleg!
Merk je nog verschil tussen 'compatiblel' schermen en schermen met een officiële gecertificeerde g-sync scaler? Bij gebruik van een Nvidia grafische kaart.?

[Reactie gewijzigd door djwice op 22 juli 2024 15:58]

Denk dat de G-SYNC Compatible en hardware G-SYNC categorieën de afgelopen jaren steeds dichter naar elkaar zijn gegroeid. Hardware G-SYNC is vooral nog een garantie dat er bijvoorbeeld variabele overdrive aanwezig is, wat sommige G-SYNC Compatible schermen ook wel hebben (bv. de Samsung Odyssey G7/G9) maar lang niet altijd. En op sommige schermen zit nog die Latency Analyzer als extra functie.
Interessant dat maakt de enorme koerswinst verhouding wel weer iets normaler die het aandeel kende.
Kan me nu nog niet goed voorstellen dat die enorme groei blijft doorzetten, voor mijn gevoel neemt de hype rondom AI al wat af, net zoals de kwaliteit van de antwoorden (puur gevoelsmatig, kan het niet onderbouwen)
De hype wel, maar het gebruik van AI staat nog steeds in de kinderschoenen. Dat wordt alleen maar meer en meer.
Deze groei kunnen ze nog makkelijk meerdere kwartalen aanhouden.
De koers/winstverhouding is voor een groeiaandeel niet de beste maatstaf. Het kan niet zo worden toegepast als bij een waardeaandeel.
Analisten zijn niet in staat om en dergelijk snel groeiend bedrijf juist te waarderen omdat omzet, marges en resultaat QoQ en YoY explosief (blijven) stijgen. De beurskoers kan dus explosief blijven stijgen als analisten de waardering naar boven blijven bijstellen. De toename van de K/W zet dan wel doorzet maar minder snel dan de toename van omzet en winst.
Bij een groeiaandeel kun beter naar de expansie van de K/W-verhouding kijken dan naar de absolute hoogte.
Zodra Nvidia "mindere" resultaten (denk een sterke afname van de groei van omzet, winst en marges; let wel de groei kan nog best wel +50% QoQ/YoY bedragen maar als dit voorheen meerdere kawartalen achtereen 100%+ was dan zijn deze resultaten "slecht" ) publiceert ben je overigens al te laat de beurskoers zal dan al flink (lees: 10-tallen procenten lager staan).

Maak dan niet de fout alsnog in te stappen of bij te kopen want de beurskoers gaat echt niet meer structureel stijgen. Ook niet omdat analisten blijven zeggen dat het aandeel "goedkoop" is of de verwachtingen naar boven blijven bijstellen.

Dit is het typische patroon van een groeiaandeel.
Je kunt bijvoorbeeld de groeiperiode van MSFT (eind jaren 80-begin jaren 90) analyseren (omzet-, winst-, en margegroei en koopadviezen van analisten ).
Of die van Cisco of Broadcom, Lucent Technologies, of Enron (inderdaad, hier is sprake van fraude; maar dat was op dat moment nog niet bekend) maar terwijl de koers al gehalveerd was (de groei was er kennelijk eruit; i.i.g. de markt dacht er zo over en dit zette de koers lager) was bleven analisten maar koopadviezen afgeven. Want goedkoop en een veel lagere K/W etc. (vaak nog absoluut hoog t.o.v. een regulier waardeaandeel maar veel lager dan ten tijde van de hooste beurskoersen)
De consumenten media hype van ChatGPT is weg, maar je hebt nu de business modellen die zich doortrekken. Bv. Microsoft CoPilot. Dat trekt allemaal nog maar op hang.

Op dit item kan niet meer gereageerd worden.