Nvidia haalt Microsoft en Apple in en is nu waardevolste bedrijf ter wereld

Nvidia heeft deze week een beurswaarde van ongeveer 3,34 biljoen dollar bereikt. De gpu-maker is daarmee voor het eerst het waardevolste bedrijf ter wereld, vooral vanwege de grote vraag naar de AI-chips die Nvidia ontwikkelt.

Nvidia heeft de afgelopen weken zowel Apple als Microsoft ingehaald, schrijft ook persbureau Reuters. De fabrikant haalde dinsdagnacht een beurswaarde van rond de 3,34 biljoen dollar. Microsoft is momenteel 3,32 biljoen dollar waard, terwijl de beurswaarde van Apple op 3,29 biljoen ligt.

Het is voor het eerst dat Nvidia de positie van 's werelds waardevolste bedrijf claimt. De beurswaarde van het bedrijf neemt al wel maandenlang gestaag toe. Vergeleken met begin dit jaar, is de totaalwaarde van Nvidia inmiddels met 160 procent gestegen. Dat komt vooral door de opleving van generatieve AI. Daardoor is de vraag naar Nvidia's AI-gpu's sterk gestegen. Bedrijven gebruiken die chips om hun AI-modellen te trainen.

Vorige week was Apple nog kort het waardevolste bedrijf ter wereld, nadat het zijn AI-plannen uit de doeken deed tijdens WWDC. Het staat inmiddels weer op plek drie, achter Nvidia en Microsoft.

Door Daan van Monsjou

Nieuwsredacteur

19-06-2024 • 13:38

96

Lees meer

Reacties (96)

Sorteer op:

Weergave:

Vandaag op Reddit een mooie korte uitleg gevonden in het Engels op de vraag ‘someone explain why?’
Because of CUDA.
About 20 years ago, someone at Nvidia had the foresight to note that GPUs weren't just useful for graphics processing, but for all kinds of highly-parallel computing work.
So Nvidia created CUDA, a software platform that opens up general-purpose computing to Nvidia's own gpus.
This bet paid off big-time, when machine-learning started to take off over the next 2 decades. Turns out that training ML models is precisely the kind of highly-parallel workload that GPUs were perfect for.
Two decades later, a lot of ML libraries (including those used to train ChatGPT and other LLMs) are written to specifically target CUDA. Which means if you want to do any interesting ML or Al work, you have to buy Nvidia.
Mooi antwoord wel.

Maar als de vraag was "waarom is Nvidia zoveel waard" slaat het de plank volledig mis. De waarde van een bedrijf wordt bepaald door de kopers van aandelen, niet door de kopers van diens producten.
Potato, potahto. Bovendien slaat het de plank helemaal niet mis. Nvidia doet goede zaken, verkoopt veel met flinke marges, maakt winst en groeit. Mensen kopen pas aandelen als ze verwachten dat de waarde van de aandelen stijgt. Er zit een redelijk eenvoudig verband tussen hoe succesvol een bedrijf is en hoeveel het waard is.
De K/W verhouding van Nvidia zit op ~100. Dat is heel hoog. MS zit op 38, ASML op 39.
Er zit veel verwachting in de prijs van Nvidia ingecalculeerd
Ik heb echt geen idee, wat is/betreft een K/W verhouding?
K/W = koers winst verhouding, prijs per aandeel gedeeld door de winst per aandeel. Is een indicatie of een aandeel te duur is.
Je moet dit dan per markt bekijken want big tech zal een ander k/w hebben dan bouwbedrijven bv.
Ligt aan je definitie van succesvol. Ook verlies leidende bedrijven kunnen bijvoorbeeld waardevol zijn. In de aandelenkoers zit namelijk (zoals je eigenlijk al zegt) een stuk verwachting van de aandeelhouders.

Er zijn verschillende manieren om bedrijven te waarderen. Je kan bijvoorbeeld ook gewoon alle assets bij elkaar optellen en daar de schulden vanaf trekken. Dat levert een ander resultaat op. Of die waardering het hele beeld schept is een ander verhaal natuurlijk.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:50]

Klopt, mits het bedrijft omzet groei laat zien, en de verliezen van kwartaal tot kwartaal afnemen, zodat je op redelijke termijn winst kunt verwachten. Maar de Nvidia waardering heeft wel een risico. Vanwege die snelle winst groei, heeft het een enorme hoge koers/winst verhouding. Zodra die groei ook maar een beetje afvlakt, gaat die koers/winst verhouding naar beneden. Dan zakt het aandeel, ondanks dat ze nog steeds groeien.
Dat er toch wel een bubbel aan het vormen is, kun je aan het aandeel van Corning (glasvezel) zien. Enkel het nieuws dat Nvidia met Corning werkt aan optische chip-to-chip communicatie, geeft dat aandeel wind in de zeilen, zonder dat ze ook concreet resultaat hebben getoond.
Kan er geen chocolade van maken, maar als trend-volger kun je prima rendement maken. Mits je alert blijft op het einde van die euforie.
Verlieslijdende bedrijven met interessante technologie zijn nogal eens geld waard, vanuit de hoop dat ze door een grotere speler overgenomen gaan worden. NVidia heeft sinds deze week dus geen grotere spelers meer boven zich. En ook de waardering van NVIdia's "assets" (bezittingen) is om die reden moeilijk. De bulk is Intellectual Property Rights (copyrights & patenten), die je niet zo 1-2-3 als bundel kunt overnemen. Dat zou alsnog onbetaalbaar duur zijn voor elke andere speler.
De waarde van een bedrijf wordt bepaald door de kopers van aandelen, niet door de kopers van diens producten.
Er is natuurlijk wel een relatie tussen de beurskoers en de het succes van het product of diensten van een bedrijf. Niet altijd het geval, maar bij nvidia, net zoals bij ASML die een uniek product heeft, denk ik wel dat het redelijk klopt
De koers wordt bepaald door het sentiment, zo gaat ARM bijna 9% omhoog, en ik zie geen belangrijk nieuws van hun.
Zijn de verwachtingen hoog gaat de koers omhoog, valt het resultaat tegen dan daalt de koers.
Ze hebben daar zeker veel voordeel van gehad en ook dat ze het gesloten gehouden hebben.
Ik zit niet echt goed in die materie maar ik begreep dat AMD met recente versies van ROCm ook de optie heeft om CUDA te "emuleren" door middel van ZLUDA:

https://www.xda-developers.com/nvidia-cuda-amd-zluda/

https://www.guru3d.com/st...-binaries-on-radeon-gpus/

Of dit voor AI workloads ook goed werkt weet ik zo niet.

Maar eigenlijk heeft nVidia nu zo goed als een monopolie in het AI segment. Ook wel een beetje apart dat bedrijven daar zo op in blijven zetten zeker gezien de bedragen die nVidia er voor vraagt. Maar wellicht zijn de alternatieven van AMD en Intel echt zo slecht bruikbaar dat men toch graag dat veel hogere bedrag betaald.

Ik vraag me wel af hoe lang deze groei nog door gaat.
Je kan er over lezen op /r/localllama op Reddit.

Het is: hoeveel is je tijd waard? Want je loopt in de problemen met tooling als je AMD gebruikt. Het schijnt dat als je Arch Linux installeert, zodat je het nieuwste hebt, AMD wel redelijk werkt. Maar dan moet je Arch onderhouden houden. Kwestie van tijd natuurlijk dat andere distributies ook bijgewerkt worden.

Wat ook goed schijnt te werken: Apple M SOCs. Voor LLMs is vooral Vram belangrijk. Als je een Mac Studio koopt voor €7500 kan er 192 GB aan gedeeld RAM/Vram in, wat Nvidia niet na kan doen. Echter is de M2 minder snel. De studio met M4 bestaat nog niet.
Tijd is inderdaad ook geld. Dus zakelijk kan dat zeker een goede businesscase zijn.

https://wccftech.com/amd-...-pro-w7900-dual-slot-gpu/

Er is nu ook een nieuwe versie uit waarbij je 4 GPU's van combineren tot een 192GB pool. Geen idee of nVidia ook zo iets heeft. Wellicht wel voor de pro kaarten?
Natuurlijk heeft nVidia zoiets. Sterker nog, nVidia verkoopt het als standaard oplossing. De NVidia DGX A100 combineert 8 GPU's met 8*40 GB geheugen.
Ja dat weet ik maar die kosten een fortuin. Ik bedoel meer voor het betaalbaarder spul. Die kaarten van amd zijn ook niet goedkoop maar met 3500 dollar per stuk wel heel veel goedkoper.

[Reactie gewijzigd door Astennu op 22 juli 2024 15:50]

vorige week nog bij een presentaie van AMD gezeten, ja dit is direct bedoelt voor AI/LLM modellen.
Grote voordeel, het werkt ook op instapkaarten van AMD, dus je zit niet direct vast aan dure licentiekosten van nvidia (voor unlocken van session limits etc)
AMD's drivers zijn echter bagger. ZLUDA ondersteund niet alles dat CUDA ondersteund dus voor een programma als KoboldCpp is ZLUDA nutteloos maar is er wel een ROCm fork. Probleem is dat ze voor een handje vol video kaarten Windows drivers hebben uitgebracht en de rest kan stikken. En vervolgens hebben ze ook de windows rocm driver niet meer geupdate. Gevolg is dat KoboldCpp na een grote refactor van Llamacpp veel problemen heeft op de ROCm windows driver, en omdat het door een refactor komt kan de ROCm maintainer maar niet vinden waar het zit omdat we nu geen goede commit history hebben. Alles lijkt er op dat Llamacpp iets heeft veranderd waardoor het enkel werkt op ROCm 6, maar dan moet je dus weer Linux gebruiken.

Dit alles had voorkomen kunnen worden als AMD moeite doet en gewoon nieuwe versies van de driver uit brengt op alle platformen op alle video kaarten. Ik heb zelf een Vega 64 gehad, maar kan niet testen / helpen met de Windows issues want die videokaart wordt weer enkel op de Linux driver ondersteund. Heeft een developer een 5000 kaart? Tja, dan wordt er niet voor ROCm ontwikkeld want 5000 kaarten worden niet ondersteund. En open source developers gaan geen AMD kaart kopen puur om AMD te kunnen ondersteunen, die kopen van hun geld een dikke Nvidia kaart om van de AI projecten te kunnen genieten.
AMD heeft trouwens wel geprobeerd om alternatieven te introduceren. Zo kwamen ze zelf met CAL (kon het al bijna niet meer vinden!), en hebben ze bijgedragen aan OpenCL.

Maar het was eigenlijk allemaal te weinig en te laat - iedereen gebruikte al CUDA, je kon er meer mee en het marktaandeel van Nvidia is zo groot dat niemand zin had om hun werk om te gaan zetten naar andere talen.

[Reactie gewijzigd door Mitsuko op 22 juli 2024 15:50]

Ik weet vanuit 3D rendering dat de performance van AMD kaarten gewoonweg niet competitief is. Het begint langzaam beter te worden maar een paar jaar geleden kon je beter de goedkoopste Nvidia kopen dan de duurste AMD. En daarvoor heeft het een hele tijd helemaal niet gewerkt omdat het zo lang duurde voordat ze hun OpenCL ondersteuning op orde hadden.
Dit klopt helemaal.

De vraag is echter hoe makkelijk er te switchen is. Nu is CUDA het beste en wordt zo goed als alle high-end Machine Learning met CUDA gedaan. Er zijn zeker alternatieven, zelfs Apple heeft wat leuks met mps, maar CUDA is net wat beter en dus wordt alles eerst voor Nvidia apparatuur geschreven. Mocht CUDA/Nvidia nou wegvallen (prijzen zichzelf massaal de markt uit bijv.), dan verwacht ik echter wel dat er heel snel een grote inhaalslag door de alternatieven wordt gemaakt. De vraag naar Nvidia apparatuur is gigantisch, maar de noodzaak is misschien wat lager dan velen verwachten. Ik denk dat concurrenten sneller het gat met de huidige staat van Nvidia accelerators kunnen inhalen, in het geval dat Nvidia geen optie meer is en er werk verzet wordt door de concurrentie om hier op in te springen, dan dat er fabs op het niveau van TSMC komen voor de productie van accelerators als TSMC wegvalt.
AI hype hype hype... Hopen dat zo snel mogelijk die bubbel wordt doorgeprikt als ze gaan door krijgen dat eigenlijk niemand er op zit te wachten en alle beloftes niet zijn waargemaakt en hun aandeel omlaag keldert. Niks tegen Nvidia hoor, uitstekende video kaarten.
Oh? Bij mijn vorige werkgever zijn enorm veel processen geautomatiseerd middels GenAI en is de kwaliteit gemiddeld hoger dan wanneer mensen het doen. En dit is geen kantoortje in Ede geweest, maar een grote speler in de financiële sector onder toezicht van verschillende toezichthouders binnen en buiten Europa. Dit heeft ze miljoenen in slechts een paar maanden opgeleverd.

Ik heb het idee dat reacties zoals die van jou vooral laten zien dat er weinig inzicht is in de voordelen. Het is geen blockchain wat een bubbel is zonder echte use case, maar een daadwerkelijke technologie waarmee mensen vele malen productiever kunnen worden.
Er zijn inmiddels ook vraagtekens gezet bij de ontslagrondes bij diverse grote tech bedrijven, deze zijn niet alleen te verklaren met reduceren van personeel na de covid en economische tendens, AI is hoogst verdacht als oorzaak. Het is niet zo netjes om te verklaren dat je banen gaat saneren omdat de taken door AI zijn overgenomen.
Ook bij UPS is dit gebeurd 12000 banen, maar die hebben de ballen gehad om te verklaren dat ze vervangen zijn door AI.

[Reactie gewijzigd door Floor op 22 juli 2024 15:50]

Klopt wat je schrijft. Ik heb mensen moeten ontslaan uit mijn team omdat hun werk gedaan kon worden door GenAI. En dit waren geen juniors, maar seniors met +20 jaar ervaring in de cybersecurity. Zij waren alleen maar met beleid bezig en na enkele interne projecten, is dit voor zo’n 80% volledig geautomatiseerd.

Dit is slechts een use case, binnen die organisatie is ongeveer 15% ontslagen vanwege AI. Daarnaast zijn grote contracten met leveranciers opgezegd omdat het intern nagebouwd werd en wederom dankzij AI grotendeels geautomatiseerd.
Het is misschien geen echte "AI" maar dat betekent niet dat het niet erg belangrijk is en veel toegevoegde waarde heeft. Veel mensen zijn er tegen, maar niet om erg logische redenen wat mij betreft.
Tuurlijk is het nuttig, maar het is ook gratis in veel gevallen.
AI Cryptocurrency hype hype hype... Hopen dat zo snel mogelijk die bubbel wordt doorgeprikt als ze gaan door krijgen dat eigenlijk niemand er op zit te wachten en alle beloftes niet zijn waargemaakt en hun aandeel omlaag keldert. Niks tegen Nvidia hoor, uitstekende video kaarten.
De vraag is welke volgende hype langskomt waarbij berekeningen op grote schaal nodig zijn.
Hopen dat zo snel mogelijk die bubbel wordt doorgeprikt als ze gaan door krijgen dat eigenlijk niemand er op zit te wachten
als ontwikkelaar is het voor mij bijna een onmisbare hulpmiddel aan het worden. Scheelt enorm veel tijd.
Ja, het is net alsof je naast iedere developer een onvermoeibare junior kan wegzetten die heel stackoverflow en alle handleidingen/guides/tutorials uit z'n hoofd heeft geleerd. Niet heel goed in grote lijnen, wel heel goed in snel stukken boilerplate of goed voorspelbare/rechtlijnige code schrijven.
Ik kan niet wachten totdat copilot eindelijk door alle controles is gegaan bij ons zodat we eindelijk daar gebruik van kunnen maken. Nu is het voornamelijk chatgpt waar je toch vaak code voorbeelden niet gebruiken als prompt die je eerst moet generaliseren met properties die niks prijsgeven.

Gegeven een object a, met properties m, l en n en m met properties x, y, z, kan je een linq query schrijven die "iets" doet.

Als je bovenstaande direct in copilot kan vragen zonder de context mee te geven zou geweldig zijn.

Het is ook heerlijk om het als class generator te gebruiken. Gegeven deze json, kan je daarvoor C# classes aanmaken? Nu maak ik ook vaak gebruik van aparte tools of websites die dat ook kunnen, maar geïntegreerd in je ontwikkelomgeving lijkt me heerlijk.

Edit: dat laatste kan je tegenwoordig ook in vs doen, maar je snapt het idee ;)

[Reactie gewijzigd door david-v op 22 juli 2024 15:50]

Mja, ik merk dat de code completion zo goed is dat ik meestal geen vragen hoef te stellen. Een kleine hint zoals een functienaam en hoppa, autocomplete stelt hem helemaal voor op basis van context.
En als Nvidia die beloftes wel waar maakt zullen de aandelen explosief groeien.

Bij Holland casino weet je zeker dat je je centen kwijt bent.
Dit is toch echt bizar, het gaat hier om AI hardware waar zoveel waar zoveel waarde aan wordt gegeven. Sinds wanneer is er 1 pony zoveel waard en mijn nuchtere blik kan dat niet begrijpen.
Waar Apple en Microsoft giganten zijn met veel verschillende facetten is Nvidia een hardware producent. En een deel van deze hardware IP wordt op zulke waarde geacht.

Dit terwijl het mij niet gigantisch onwaarschijnlijk lijkt dat andere bedrijven enigszins in de buurt kunnen komen.
Een imperium als Alphabet, Apple, Amazon of Microsoft voelt als iets veel machtigers dan Nvidia.
Het gaat dan ook om 'Market Capitalization', een van de meest waardeloze flauwekulmethodes om een bedrijf langs de meetlat te leggen. Het negeert schuld volledig en de relatie tussen Market Cap en zaken als vermogen, winst of omzet is dun.

Dan is Enterprise Value al een stuk zinnigere methode.
Ja en 'Market capitalization' wordt bepaald door de laatst verkochte aandeel en zegt niks over de prijs die aandelen voor worden verkocht in de toekomst. Mensen kopen aandelen vooral met het idee om die aandelen voor meer geld te verkopen straks, een aandeel die hard aan het stijgen lijkt een korte route naar winst - dus meer mensen kopen, stijging blijft verder gaan, etc, etc. Maar er komt een moment van twijfel, vaak door iets kleins, maar al die snelle geld mensen gaan op zo een moment zo snel mogelijk verkopen. Mensen zitten voornamelijk niet NVDA te kopen voor de lange termijn.
Dat is heel simpel, omdat dat de bedrijven op plek 2, 3 en daar onder op korte tijd een afhankelijkheid van Nvidia gecreëerd hebben. De AI hype heeft er voor gezorgd dat ieder bedrijf ineens Nvidia hardware nodig heeft, want er zijn blijkbaar geen goede alternatieven op het niveau van wat Nvidia bied hier.

Is dat een goede zaak? Nee, maar dat is de AI hype in zijn algemeen al niet.
En toch hebben al die giganten die jij noemt spulletjes nodig van......NVIDIA.

Er is simpelweg geen alternatief. We hebben maar 2 grote GPU makers, NVIDIA en AMD.
Sure Intel rommelt ook een beetje mee en nog wat andere kleine spelers. (of low power, low performance)

AMD kan NVIDIA niet bijbenen, m.a.w ze hebben op dit moment een monopoly. Eerst was het crypto, nu is het AI en ik vermoed dat AI een blijvertje is de komende jaren.

Overigens maken ze niet enkel GPU's, ze hebben ook Mellanox overgenomen dus NVIDIA maakt ook serieuze netwerkapparatuur, 400G+ netwerkkaarten en dergelijke.

Uitspraak van Jensen, CEO van NVIDIA:
Of course, companies will be well aware of the Total Cost of Ownership (TCO), which basically means that Nvidia's claimed benefits like time to deployment, performance, utilization, and flexibility are "so good that even when the competitor's chips are free, it's not cheap enough," according to Huang.

M.a.w onze GPU's zijn zo snel, zo 'zuinig', al geeft onze concurrentie ze gratis weg, die van ons zijn na X jaar alsnog goedkoper.

[Reactie gewijzigd door Navi op 22 juli 2024 15:50]

Sinds januari dit jaar is het aandeel ~2,5x over de kop gegaan.
Ik heb op 23/05/2024 er geïnvesteerd en nu zit dat al op +29.27% op het moment dat ik dit schrijf. Best lekker moet ik zeggen. Beetje jammer dat ik er niet meer in had gestopt, maar goed.
Ik heb in januari al mijn spaargeld dat niet al in aandelen zat erin gestopt. Plus nog wat aandelen verkocht en in Nvidia gestopt. Want ja, het zal vast ooit een keer omhoog gaan, dat vertrouwen had ik sowieso wel in Nvidia. Ik had geld over, en dat heb ik niet vaak, en spaarrekeningen zijn niet echt een ding meer (al begint de spaarrente tegenwoordig weer terug te komen).

En ik had al sinds 2020 aandelen. Dat AI groot zou worden was mij wel al duidelijk, evenals de grote rol die Nvidia erbij ging spelen (en al speelde). LLM's had ik dan niet voorspeld, die kwamen voor mij als een verrassing, maar ik zag op mijn werk overal en nergens Nvidia Jetsons op gemonteerd worden (vooral op drones voor computer vision) en we kregen ook nog een paar A2000 kaarten in de serverkast voor machine learning, en we waren zeker niet de enigen die hiermee bezig gingen, dus toen wist ik wel hoe laat het was.

Maar ik had niet verwacht dat "ooit" zo gauw zou komen. En ik weet niet of me dit trucje nog een tweede keer lukt. In ieder geval niet voordat de markt is gestabiliseerd.

[Reactie gewijzigd door Amanoo op 22 juli 2024 15:50]

Wat is het verdien model van LLMs dat deze waardering rechtvaardigd dan? Ik zou maar oppassen als ik jouw was.
Weinig tot geen. LLM's zijn grotendeels een gimmick, of hooguit een veredelde zoekmachine. Af en toe gebruik ik ze wel, ze hebben hun nut, maar ik zie ze ook niet als heel relevant. Ze zijn vooral een spectaculaire ontwikkeling die is aangeslagen bij het klootjesvolk, welke bij de echte belangrijke AI ontwikkelingen alleen maar in slaap vallen.

AI is niet LLM's. Net zoals niet alle elektrische auto's Tesla's zijn. Ik ben geen AI expert, en mijn toekomstbeeld is vast vertekend door mijn werk (embedded engineer waarbij ik met AI ontwikkelaars heb samengewerkt), maar als je het mij vraagt zit de toekomst in embedded AI toepassingen waarbij LLM's niet interessant zijn. Gebruik het voor beeldherkenning en SLAM op een drone of een robot, en je kan echt hele mooie dingen. Met de robots die ik in ontwikkeling heb gezien, voorzie ik een nabije toekomst waarin de landbouw volledig geautomatiseerd kan worden. Daarnaast zijn er ook toepassingen die voor ons als machinebouwers niet relevant waren, maar ongetwijfeld groot zullen worden, zoals het herkennen van kanker.
>waarbij LLM's niet interessant zijn

Overigens is Embedded AI versus LLM's een soort kip-ei verhaal. Want wat als het draait om een embedding van een LLM in een systeem. Speelt LLM dan geen rol meer? Embedded AI is gewoon een koepelterm die niet 'mutually exclusive' exlusive is met LLM.

En vergeet ook de sociale vakgebieden niet. Educatie gaat drie keer over de kop door LLM's die leertrajecten op een persoonlijke manier kunnen gaan ondersteunen. Voeg daar een analyst aan toe die de LLM's op leerniveaus prompt om gebruiker gerichte leertrajecten te maken en je hebt het hele onderwijssysteem op z'n kop gezet. Dit draait voornamelijk op LLM's als interface.

Daarnaast geven LLM's ook een flinke meerwaarde in de informatie infrastructuur in bedrijven. Als een LLM toegang heeft tot de volledige documentatie van een organisatie, dan is dit een enorm krachtige tool welke werknemers helpt om snel tot beleid en inzichten te komen die de waarde van het bedrijf vergroot.
Nou ja, je kan natuurlijk wel een LLM in een embedded device stoppen. Dan speelt het wel een rol. Alleen, hoeveel vraag is daar nu echt naar? Het overgrote deel van embedded systemen zijn toch wel de grootschalige industriële automatisering. Ik zie daar sowieso weinig markt voor LLM's.

Ik weet dat Nedap werkt aan een soort eink fotolijst voor dementerende ouderen. Die helpt ze met innemen van medicatie, dagschema, etc. Dat is een voorbeeld van een embedded systeem waarin een LLM misschien leuk zou kunnen zijn. Dat de ouderen iets vragen aan de fotolijst, en dat het er dan iets mee doet. Je zit alleen wel met batterijduur, dat was een heel groot aandachtspunt bij de ontwikkeling. Dementerende ouderen gaan dat ding niet opladen.

Dus mwoah, ik wil niet zeggen dat het nooit in embedded systemen gebruikt zal worden. Maar ik denk zelf dat de vraag heel beperkt zal zijn. Maar ik kan ernaast zitten, embedded is een creatief vakgebied dus wie weet wat voor gekke AI toepassingen er nog bij zullen komen.
ls je voor 3 dollar nvidia in 1999 in het begin had gekocht, dan was je nu miljonair ! ;)


Ik zelf heb nvidia ergens in 2017 gekocht :) . Helaas geen miljonair, maar wel een leuk bedrag.

[Reactie gewijzigd door phantom09 op 22 juli 2024 15:50]

Sinds 5 jaar geleden x30.
Damn en ik maar denken dat t te laat was om nog in te stappen in de aandelen :')
Het gaat echt wel een keer klappen hoor. De beurs is momenteel extreem overgewaardeerd.
Het is alleen lastig te zeggen hoeveel het overwaardering is, en hoeveel klopt. Dit is geen GameStop, er is wel echt een goede reden waarom Nvidia zoveel waard is.

Ik zou mensen niet durven aanraden om Nvidia te kopen. Maar ik durf het ook niet aan te raden om te verkopen. Hoe meer ze groeien, hoe moeilijker het is om te zeggen welke kant het op zal gaan.

Sowieso ben ik geen professionele investeerder of economicus. Hooguit heb ik een beperkt inzicht in de AI industrie, en dan nog ben ik geen AI specialist. Ik heb bij mijn eerste baan vooral best samengewerkt met AI ontwikkelaars en veel Nvidia zien langskomen. Maar in januari had ik zeker wel de verwachting dat Nvidia op lange termijn zou stijgen. Die lange termijn bleek alleen best heel kort.

Maar goed, ik verwacht niet dat ik dit trucje een tweede keer kan. Of in ieder geval niet voordat de markt meer tot rust is gekomen.

[Reactie gewijzigd door Amanoo op 22 juli 2024 15:50]

Van maart 2009 tot februari 2020 was er een bull market die in totaal 132 maanden duurde.
Dit werd opgevolgd door twee bull runs van maart 2020 - januari 2022 en october 2022 tot nu, goed voor 21 maanden en 10 maanden respectievelijk.*

De 'lijn' gaat in principe alleen maar omhoog, ook als we de dips tussendoor meenemen. In de maand februari 2020 ging de markt hard onderuit, maar was binnen een paar weken weer helemaal hersteld. De 'waardering' voor bedrijven komt dus hoofdzakelijk neer op het sentiment van de aandeelhouders. Zodra die omslaat, kan het hard gaan. Als 'de markt' gemiddeld 30% onderuit zou gaan, dan zou ook nvidia niet gespaard zijn en makkelijk 1000 miljard (!) dollar kwijt kunnen zijn binnen een paar dagen / weken.

Het huidige economische systeem heeft tot dusver getoont dat elke bull run opgevolgd wordt door een crash en mogelijk een bear run. De vraag is wat de volgende trigger zal zijn voor dit cyclische moment.

* bron: https://www.forbes.com/ad...ting/bull-market-history/
Klopt en daarom is spreiding van aandelen heel belangrijk. En tijd. Als het crasht heb je dan nog de tijd om te wachten totdat het de crash weer te bovenkomt. Ook dat is altijd gebeurt. Zit je vlak voor je pensioen dan zou ik niet meer veel risico durven nemen.
Ik zit er ook altijd naast, CPU en GPU gekocht, die een maand later 10% goedkoper waren geworden :D
Ik heb echter niet het idee dat deze "waardevolste bedrijf" status lang zal blijven, AI lijkt mij niet bepaald goed te zijn i.v.m bepaalde doeleinden waar het al voor wordt (mis)gebruikt
Geen zorgen, bijna niemand kan het goed voorspellen. De truuk van grote beleggers is om het met een heel breed portfolio net iets meer dan 50% van de keren goed te voorspellen, en daar worden legers aan knappe koppen voor ingehuurd die hiervoor getrained zijn. De waarde van aandelen past zich sneller aan dan je het laatste nieuws kan lezen.

Een uitzondering is als je insider informatie natuurlijk. Maar anders is het investeren in heel specifieke bedrijven als consument gewoon een spelletje gokken ;)
Ik heb de race van Nvidia maar overgeslagen aangezien ik die al erg duur vond, misschien achteraf niet z’n goed idee. Alhoewel ze wel nog een etf zitten die lekker loopt.
Maar ik heb dan voor de grap wat ARM
aandelen gekocht, die zijn al over de kop.
Vandaag is de dag dat je moet instappen en vandaag is de dag dat je moet uitstappen.
Met aandelen weet je het nooit.
Absurd hoe "waardevol" ze zijn. Biljoenen euro's zitten we al op.
Ik zie ook alweer comments van mensen die niet weten wat er in de technische wereld speelt en zelfs van een AI hype spreken. Dan kijk je niet verder dan gimmicks zoals ChatGPT of Midjourney.

Kijk bijvoorbeeld eens naar de Nvidia Jetson lijn. Die worden speciaal gemaakt voor AI, maar je gaat ze niet kopen voor een LLM. Die zijn meer bedoeld om op een drone te plakken of om in een ander embedded systeem te verwerken.

Ik ben wel het een en ander aan AI tegengekomen in mijn carrière. En het eerste waar ik aan denk bij AI zijn drones die voor diverse detectiedoelen worden ingezet. Detectie van brand, processierupsen, mensen in ingestorte gebouwen, noem maar wat op. Verder is het best wel een ding dat onderzocht wordt in de medische industrie. Denk aan detecteren van kanker, of bepaalde ingrepen automatiseren. Of zelfrijdende machines. En dan niet alleen auto's, maar bijvoorbeeld landbouwmachines. Ik heb de ontwikkeling gezien van een machine die onkruid verwijderd op de akker, zodat er niet met gif hoeft te worden gespoten. Of robots in stallen. Of sinaasappelplukkers.

Ik durf niet te zeggen hoeveel van de waarde komt doordat iedereen Nvidia ziet stijgen, en dan ook maar gaat investeren. Zo'n vicieuze cirkel zal er vast wel zijn. En er zullen ook wel Nvidia GPU's worden ingezet voor LLM's die uiteindelijk een roemloze dood sterven, wat nu waarde toevoegt. Maar ik kan het geen hype noemen.
Het probleem met hypes is dat ze de daadwerkelijke goede kanten van een techniek beschadigen wanneer deze uiteindelijk klapt.

Net zoals virtual reality. Een jaar of 2-3 geleden was dat een hype. Nou is dit een geweldige techniek maar het is niet voor iedereen en altijd. Mensen verwachtten dit wel doordat het een hype was.

Nu is het geklapt en als je nu een serieuze usecase aan de man wil brengen dan heeft men een zuur gevoel in het achterhoofd van 'ja maar dat was toch niks geworden'. Het probleem is dat die hijgerige investeerders zich helemaal botergeil rukken en allerlei verwachtingen bouwen die totaal niet serieus zijn. Dat doet uiteindelijk veel meer kwaad dan goed voor de techniek.
en volgende week ruilen ze weer plaats 1 voor plaats 3... Dat is toch geen nieuws?
Het gaat hier niet om plaats ruilen, maar op plek 1 komen terwijl er enige tijd geleden helemaal geen sprake was van het in aanmerking komen voor die plaats.

Edit:
Voor context, vorig jaar waren ze ongeveer een derde van Apple waard.

[Reactie gewijzigd door LOTG op 22 juli 2024 15:50]

Ze waren al eerder op plek één gekomen voor de keynote van Apple, en toen was het ook al nieuws. Dus ja dan is het enkel plaats ruilen en niet echt nieuws waardig.
De gpu-maker is daarmee voor het eerst het waardevolste bedrijf ter wereld
Dat is niet wat in het artikel staat, ik meen mij iets te herinneren maar als ik kijk naar de grafiek bij Reuters waren ze toen waarschijnlijk meer waard dan Apple. Echter heeft Apple een flinke dip gehad en is Microsoft ze toen voorbij gestoken, het lijntje van NVidia kruist Apple op dat punt maar toen waren ze dus nummer twee, en Apple 3.

Edit: artikel op Reuters destijds heeft het inderdaad over plek 2 wat ze van Apple over hadden genomen. Het is dus de eerste keer, Apple had zowel Nvidia als Microsoft voorbij gestreefd na hun keynote.

[Reactie gewijzigd door LOTG op 22 juli 2024 15:50]

Ze zijn Apple al eerder gepasseerd, maar Apple stond toen niet op plek 1, zowel NVidia als Apple moesten op dat moment Microsoft boven zich dulden.
Dat ze elkaar hierin zullen afwisselen is geen nieuws. Maar dat de bizarre groei van Nvidia zo snel gaat (en zelfs de koppositie weet te claimen) is absoluut nieuwswaardig. Dit had niemand een paar jaar geleden kunnen voorspellen.
en volgende week ruilen ze weer plaats 1 voor plaats 3... Dat is toch geen nieuws?
Ondersteunen is een erg belangrijk woord, niet waar?
Wat als ik Microsoft in de oor wil influisteren dat ze Nvidia kaarten niet meer moeten ondersteunen? :P
En ja de gevolgen voor hele wereld is ongekend groot lol
Ook op aandelen markt :P
Volgende dag staat Nvidia ver onderaan.

Een perfecte wraak van Microsoft en Apple, denken ze...

[Reactie gewijzigd door Dark Angel 58 op 22 juli 2024 15:50]

De vraag is alleen voor hoelang? Ze maken nu een explosieve groei door, maar gaan ze dat volhouden? Houden ze de verkopen van onder andere Ai chips stabiel? Want met alleen videokaart chips blijven ze niet aan top
Dat is juist waarin ze het verschil maken, ze hebben chips, complete systemen, networking en software. CUDA mag dan gezien worden als dé reden waarom iedereen nu op NVIDIA GPUs ontwikkeld maar de manier waarop NVIDIA zijn ecosysteem gebouwd heeft is minstens net belangrijk. Daarnaast is hun go-to-market ook best bijzonder.. want ondanks dat ze complete systemen bouwen (DGX), verkopen ze ook hun chips los en delen ze het design van bijv. NVLink boards met andere vendoren.
Nvidia heeft het spel mooi gespeeld en als we eerlijk zijn, zijn ze ook gewoon volledig verantwoordelijk voor de huidige AI-boom/hype. Ze maken ook geweldige producten en kunnen er de hoofdprijs voor vragen.

Spijtig genoeg is dat ten koste gegaan van hun gaming-producten, wat duidelijk niet meer de prioriteit heeft. Maar dat geeft tegelijk ook anderen de kans om in dat gat te springen en te groeien.

De toekomst van Nvidia is in mijn ogen zeker groenkleurig, we hebben het laatste er nog niet van gehoord..
Voor die hype is toch echt generative AI in brede zin met in het bijzonder ChatGPT verantwoordelijk. Ik gebruikte al jaren daarvoor zakelijk “AI toepassingen”, dat werd toen echter nog niet als onderdeel van AI gepresenteerd.
Maar ChatGPT draait natuurlijk bijna volledig op chips van Nvidia..
OpenAI heeft natuurlijk de software geschreven, maar zonder Nvidia hadden we nooit ChatGPT gehad. Het is een en en verhaal.

[Reactie gewijzigd door Kevjoe op 22 juli 2024 15:50]

Als het zo eenvoudig was, Nvidia hardware kopen, dan was ChatGPT niet zo marktleider als ze zijn. De chips van Nvidia leveren een bepaalde capaciteit, snelheid, maar de echte intelligentie is ontwikkeld door OpenAI e.a.

[Reactie gewijzigd door nms2003 op 22 juli 2024 15:50]

Op dit item kan niet meer gereageerd worden.