'Nvidia plaatst spoedbestellingen bij TSMC vanwege sterk toenemende vraag gpu's'

Nvidia heeft spoedbestellingen geplaatst bij TSMC voor de productie van chips door een rap toenemende vraag naar diens datacenterproducten. Dat schrijft DigiTimes op basis van eigen bronnen.

Nvidia heeft een hoop spoedbestellingen geplaatst voor voornamelijk de H100- en A100-datacenter-gpu's en voor de Chinese varianten, de H800 en A800, zeggen bronnen tegen DigiTimes. Er zouden zoveel bestellingen geplaatst zijn, dat de bezettingsgraad van de 4nm- en 5nm-chipproductielijnen hierdoor vrijwel vol is. TSMC moet naar verluidt tot het eind van het jaar een versneld productieschema hanteren om de bestellingen bij te kunnen benen. Ook de bezettingsgraad voor de 6nm- en 7nm-lijnen zou verhoogd zijn door de plotse stroom aan orders.

Eerder deze week liet Nvidia bij de presentatie van zijn laatste kwartaalcijfers al weten dat de vraag 'van al onze datacenterproducten' stijgt en dat het bedrijf om die reden het aanbod 'significant' verhoogt. Ook TSMC zou verbaasd zijn door deze plotse vraagstijging, schrijft DigiTimes. De chipfabrikant verwachtte volgens de site in eerste instantie alleen een significante hoeveelheid bestellingen van Apple dit jaar.

In het eerste kwartaal van het boekjaar 2024, dat eindigde op 30 april, behaalde Nvidia een omzetstijging van 19 procent ten opzichte van het eerdere kwartaal. Er werd 7,19 miljard dollar omzet geboekt. Het bedrijf verwacht in het tweede kwartaal ongeveer 11 miljard dollar omzet te behalen. Nvidia wijt de stijgende vraag naar zijn datacenter-gpu's aan de populariteit van AI. "Bedrijven proberen zo snel mogelijk om generatieve AI toe te passen in ieder product, bedrijfsproces en iedere dienst."

Nvidia H100

Door Kevin Krikhaar

Redacteur

26-05-2023 • 18:32

92 Linkedin

Reacties (92)

92
90
36
1
0
41
Wijzig sortering
Ligt het aan mij, of is AI straks de reden dat de videokaarten weer niet aan te slepen zijn? :+

Ontopic: Ik heb het gevoel dat er een beetje roekeloos overal AI "in wordt gepropt", wegens marketing/buzzword populariteit. Voor veel use-cases die nu richting de consumer worden voorgesteld klinkt het echt als een verspilling van stroom en resources. Ik vraag me serieus af waar we uiteindelijk écht uit gaan komen met AI.
Ligt het aan mij, of is AI straks de reden dat de videokaarten weer niet aan te slepen zijn? :+
Nee, het gaat hier over datacenter GPUs, die kan je niet denderend gebruiken als game GPU. Dus een heel andere productielijn. Daarnaast is de vraag hoelang het duurt voordat de eerste LLM gerichte FPGAs worden geproduceerd die veel efficiënter zijn dan dergelijke GPUs. Daarna waarschijnlijk door naar de AISIC, een beetje hetzelfde pad als de crypto (BTC) qua technologie, maar waarschijnlijk versneld omdat omdat er zoveel meer te verdienen is met LLMs en een groot deel plaatsvind in de Enterprise omgevingen. Ipv. de hobby project GPU cryptomining farms (ook al zijn ze enorm geupscaled)...
Nee, het gaat hier over datacenter GPUs, die kan je niet denderend gebruiken als game GPU.
Maar het kan wel ten koste gaan van de productie capaciteit van TSMC voor videokaart chips. Als de marges hoger liggen en de vraag groter is voor server chips, kan de productie van chips voor consumenten gpu's omlaag gaan waardoor de prijzen gaan stijgen.
In theorie ja, maar dat is tot op heden nog nooit gebeurd. Althans qua consumenten GPUs. Sure, tijdens de pandemie was er productie tekort door de vraag in de chip industrie, echter hadden AMD en Nvidia allang hun productie capaciteit ingekocht en hadden daar geen issues meer. Er was meer vraag dan dat er geproduceerd werd, maar de aanname van dat ze dan de productie omhoog zouden gooien is een die niet klopt. Want dat hebben zowel AMD als Nvidia ook niet gedaan tijdens een eerdere crypto gekte (zo rond de 1080), volgens mij is er zelfs een nieuwsbericht hier op Tweakers.net over dat de productie niet omhoog zou worden gekrikt.

En als je kijkt naar de inkomsten van Nvidia dan zijn die al primair voor datacenter producten, dit is al enkele jaren zo. De prijzen van GPUs zijn omhoog gegaan, maar alleen tot een niveau waarbij een significant aantal mensen het nog wel wil betalen, als dat niet gebeurd gaat de prijs zakken. Dat zien we nu ook gewoon bij de 4080/4090 welke in de afgelopen 6 maanden met 20%-35% in prijs is gedaald.

Ik mag hopen dat zo een pandemie niet regelmatig voor gaat komen en als dat zo is dat we er beter op voor zijn bereid, want het is een hele berg factoren die opeens allemaal op een rijtje staan, die normaal gesproken nooit allemaal samenkomen. Vandaar de je ze een vertekende markt heb gehad de afgelopen drie jaar. En je ziet die markt langzaam bijstellen de afgelopen 6+ maanden qua videokaarten, maar voor andere elektronica is de markt nog lang niet hersteld (RPi). De opkomst van LLM is gewoon 1 factor die de markt verstoord ipv. vele factoren. Ik zie geen productie capaciteit issues voor GPUs de komende tijd. Voorbij dat Nvidia vorig jaar zelf al productie capaciteit heeft gekapt, de volgende generatie heeft uitgesteld, etc.
Daar ben ik me van bewust, de eerste zin was dan ook een beetje grappend bedoeld.

Ik vraag me af hoeveel efficientie gains we zullen zien naarmate de tech zich ontwikkeld. Voor mijn gevoel staan we nog maar aan het begin hiervan en zetten we "whatever hardware we got" in voor het doeleinde momenteel.
Dat was ook de eerste gedachte die bij mij opkwam bij het lezen van dit nieuws, Of zouden dit andere productielijnen zijn? Voor mining werden uiteindelijk relatief normale gpu’s gebruikt en die dreven de prijs op ivm een verhoogde vraag en lagere beschikbaarheid. Vraag me dus af of de professionele markt die impact ook zal hebben op consumer chips/kaarten

[Reactie gewijzigd door gatlarf op 26 mei 2023 19:04]

In principe is de impact niet groot. Zo'n accelerator is een heek andere chip dan de "Videokaart" die wij kennen. De opmerking was dan ook een beetje grappend bedoeld.

Eigelijk kan je wat je hier ziet ook niet echt een "videokaart" noemen. Het is echt een AI accelerator.
Zijn dezelfde produktielijnen die nu al op super hot run draaien. Dus schaarste en dat manifesteerd zich in prijsstijgingen.
Ligt het aan mij, of is AI straks de reden dat de videokaarten weer niet aan te slepen zijn?
Voordeel voor ons is dat de meeste AI afnemers van kaliber de zeer populaire A100 en H100 gebruiken. De meeste gaming kaarten zijn qua AI prestaties namelijk een heel stuk minder krachtig. Plus deze modellen zijn geschikt voor servers qua formaat en koeling. Weet alleen niet of de chips van dezelfde fabricagelijn af rollen. Dan kan het nog wel een flink probleem opleveren als er weer schaarste komt door verschuiving van de productie.

Al ben ik wel een beetje huiverig dat als deze trend met super populair server spul zich blijft continueren dat Nvidia stopt met de consumenten markt. In ieder geval de "aanstaande flinke prijsdalingen" waar leakers op sturen kunnen we denk ik wel op ons buik schrijven met dit soort nieuws.
Ik reken er niet meer op dat nVidia nog met redelijke consumer producten zal komen, maar de tijd zal het leren.

Ik hoop enkel dat we niet naar dat "cloudgamen" toe gaan.
Ik hoop dat juist wel! Ik speel bijna nooit meer, en ga daar geen enorme videokaart voor kopen. Maar die paar keer dat ik speel zou ik graag een paar euro betalen om ècht mooie graphics te kunnen hebben.
De latency is niet te vergelijken; Ik heb dat weleens geprobeerd. Maar er gaat niets boven 60+ fps met nauwelijks latency. En dan ben ik alk 40+. Het verschil is gigantisch.
Tenzij je dat datacenter naast de deur hebt zal er altijd latency zijn. Kwestie van natuurkunde. Ik heb verschillende cloud diensten getest. Gforce Now is de beste, Gamepass het slechtst in mijn geval. Geen van beide kan toppen aan een lokaal device.
In mijn geval zouden de datacenters in dezelfde stad zijn, dus dat valt wel mee voor me. Maar natuurllijk niet een oplossing voor iedereen.
Als dat in mijn geval ook zo zou zijn dan zou ik het zeker overwegen.
True, maar die zijn voor menig starter best wel steep in aanschaf :)
Had laatst een een 40" rack opgeleverd voor een klant waar voor 2 miljoen <!!> aan hardware in hing, omdat de cloud gewoon niet te betalen was voor 24x7 GPU compute. Dan zijn die een paar 4090's met ECC nog altijd een the next best thing :)
Dit gaat niet over de gewone gaming GPU's voor alle duidelijkheid !
Nvidia H100-GPU’s kosten al meer dan 40.000 dollar in het wild
De de oudere A100 rond de 15.000 dollar
Ontopic: Ik heb het gevoel dat er een beetje roekeloos overal AI "in wordt gepropt", wegens marketing/buzzword populariteit.
Bedoel je met Ontopic, Offtopic?
Juist wel ontopic. De eerste zin was grappend bedoeld, gezien een AI accelerator en de "videokaart" die wij kennen aanzienlijk andere koek zijn.
Toch is het niet gek gedacht. Nee het is niet zoals bij crypto dat letterlijk dezelfde kaarten opgekocht worden er voor, maar die datacenter kaarten nemen nog steeds productiecapaciteit in die dan minder beschikbaar is voor consumenten gpu's (en cpu's ook trouwens).
Ik werk aan de beursgang van een Blockchain-AI app (grapje)
* Heb een idee voor een Blockchain-AI app.
Dit ook echt. Elke tool - denk bij Notion en Spark - heeft ineens een AI integratie, vrijwel allemaal GPT4. Bedrijven betalen massaal vloer API toegang, maar vraag me af hoe veel maar vooral hoe lang t echt gebruikt wordt.
Als iemand die open source AI software ontwikkeld heb je helemaal gelijk, video kaarten zijn niet aan te slepen. Heel veel organisaties willen ze hebben en zijn beperkt door het aantal video kaarten die ze hebben / kunnen betalen.

Ook ik heb vandaag een afspraak met een mede tweaker om zijn 3090 over te nemen gezien ik iets moderners nodig heb met veel VRAM. Dus het is zeker een trend nu AI steeds beter / leuker wordt om te gebruiken.

Voor consumenten zul je gaan merken dat VRAM echt een enorm probleem is en straks games gaat tegen houden. Fatsoenlijk taal model slokt al je VRAM op, dus wil je een RPG ontwikkelen met NPC's die meer kunnen dan de standaard dialoog opties maar wil je niet afhankelijk zijn van always-online integratie zul je dus veel meer VRAM nodig hebben op de lokale hardware en is 24GB - 48GB geen luxe.
Altijd wanneer er een nieuw modedingetje is. Een beetje bedrijfskundige zoekt altijd naar een goede oplossing voor de processen, i.p.v. nieuwe oplossingen op de markt z.s.m. toe te passen op hun processen, of het nou past of niet.
Waar we op korte termijn op uit gaat komen legt Microsoft uit in zijn Future of Work-presentatie. En dat is dan alleen nog maar het stukje Office en hoe het werk daarmee gaat veranderen....
Hierom zijn de aandelen in een dag met 25% gestegen. Sinds gisteren is Nvidia op de beurs meer waard dan 1.000miljard dollar. Er zijn maar 5 andere bedrijven die meer dan 1biljoen waard zijn.
AI gaat als een raket.
Door velen wordt er ook gezegd dat nVidia momenteel zwaar overgewaardeerd is (hoge P/E ratio). Kans is groot dat het aandeel in de komende periode weer een groot deel in zal leveren.
Zijn ze ook, een koers winst verhouding van 222 is belachelijk hoog. De koers is verdriedubbeld in het afgelopen half jaar, dat was al "wegens AI" en nu gaan de beleggers opnieuw los "wegens AI".

[Reactie gewijzigd door Rogers op 26 mei 2023 19:17]

Je zit naar de gerealiseerde winst te kijken. Beleggers kijken naar de verwachte winst. Dáár wordt op gereageerd. Beleggers kijken vooruit, niet achteruit, zéker in de tech sector.
Dus ze hoeven alleen maar hun winst x8 te doen..
De winst is ruim 63% (https://ycharts.com/companies/NVDA/gross_profit_margin), dus 'x8' lijkt me wel wat overdreven.
Heb het niet over de marge.
Gezien deze markt al veel meer richting gpu gaat en het succes van chatgpt zou ik zeggen, winst/ omzet x 2 is een garantie, x4 zeker haalbaar dus 8 x misschien ook wel :p
En het grappige is, dat na de Q1 cijfers de p/e is gedaald, ondanks de 25% stijging. Het aandeel Nvidia is dus goedkoper geworden.
Dat zegt al wel genoeg hè? Een move naar ASICS zou pijn kunnen doen maar misschien gaat NVIDIA die dan ook wel leveren… hoe dan ook, hun hoge marge producten voor de enterprise hebben nog flink ruimte om te groeien, er is enorm veel AI werk te doen.

Wij zien het ook, ons product krijgt overal AI features want de mogelijkheden om werk makkelijker en sneller te maken met AI zijn enorm. Maar het gaat super veel compute kosten dus onze klanten moeten eigenlijk ook allemaal GPU’s gaan kopen…
Of allemaal een A100 met 128GB DDR6
A Super Pod a day keeps the doctor away.

Front bezel comes in crushed conflict diamonds dipped in the blood of virgins... (they say)

[Reactie gewijzigd door ViPER_DMRT op 27 mei 2023 16:53]

Nvidia is overgewaardeerd, tenzij je gelooft dat "AI" een grote turnover in datacenter gast veroorzaken.

Cijfers can vorig kwartaal waren historisch gezien relatief zwak. Automotive deed het duidelijk beter.
Gpu's was een kentering doch nog steeds relatief zwak.
Datacenter was terug redelijk.

Het was voornamelijk het eerste teken van herstel, naar terug betere cijfers die de koers omhoog duwden; bijkomend de guidance in datacenter. Vraag me oprecht sterk af of de nood naar AI geoptimaliseerde chips voldoende gaat zijn om deze P/E te rechtvaardigen. Denk het niet, maar chippers zijn van nature wat overgewaardeerd, zelfs in slechte tijden (vorig jaar).
Vraag me oprecht sterk af of de nood naar AI geoptimaliseerde chips voldoende gaat zijn om deze P/E te rechtvaardigen.
Ik vind het op de middellange termijn moeilijk in te schatten - er zal snel concurrentie komen. Maar op dit moment is een NVIDIA gpu het eerste wat een bedrijf zou kopen als ze “ai” gaan gebruiken. En vrijwel elk product met een gebruikersinterface kan wel voordeel hebben van ai features denk ik - in elk geval zullen al onze klanten het wel willen inzetten, en ik denk dat het echt voor bijna elk ander product wel relevant is. Dus elk data center gaat de komende maanden GPU’s kopen. Op korte termijn zal dat goud opleveren.
Of een P/E ratio hoog is, ligt er maar net aan welke toekomstige winsten je verwacht en hoe hard die groeien. Ben zelf niet zo van de harde stijgers, diepe dalers, maar hoge P/E zegt niet zo veel zonder context.
Is dit ook een goede maat hoe slecht AI is voor het milieu en onze energieneutraal beleid?
Ja. Ik denk dat je wel eens kon schrikken hoeveel megawatt er per dag word weg ge-AI'd.
Met chatGpt, lokale LLM, mensen op jupyter notebooks, mensen met lokaal stable diffusion of online een of andere service gebruiken om AI te laten zweten op een A100.
Met het maken van de modellen ja, daarna is het een stuk zuiniger dan wanneer je mensen laat zoeken in een browser :)
Als AI de efficiëntie van bepaalde dingen verhoogd dan hoeft het niet per definitie slecht voor het milieu te zijn. Net zoals de digitalisering ook een netto positief effect kan hebben (digitale krant, videoconferencing, etc).

Een inefficiënte code base of energie onzuinige programmeer taal bijvoorbeeld. Stel dat AI kan helpen om die hele code base opnieuw te doen in een andere (meer efficiënte) taal dan kan de (CO2) investering zichzelf terugverdienen.

[Reactie gewijzigd door Torgo op 26 mei 2023 20:07]

Als AI los word gelaten en overheden of de mensen zelf komen er niet tegen op, dan krijg je de film I robot in het echt 20 jaar later :)
Als AI de efficiëntie van bepaalde dingen verhoogd dan hoeft het niet per definitie slecht voor het milieu te zijn.
Inderdaad, als....
Digitalisering een netto positief effect op energieverbruik?

Hoewel ik klimaat persoonlijk niet zo belangrijk vind, kun je daar natuurlijk wel aan twijfelen. Feit is dat onze hersenen maar weinig energie nodig hebben om te functioneren, zo'n 10-20 watt afhankelijk van welke bron je raadpleegt.

Ik las laatst dit artikel van Low-Tech Magazine:
Why We Need a Speed Limit for the Internet
https://solar.lowtechmaga...-on-renewable-energy.html
Beetje laat, dat artikel heeft het over 2012 🙂
Sindsdien is het elektriciteitsverbruik alleen maar omhoog gegaan wat betreft gegevenscentra en andere elektronica.
Gros van de hosting boeren draaien 15 jaar oude 1u servers met sas disks, een moderne server kan 2 40U racks vervangen in compute capacity. Neemt niet weg dat de vraag blijft groeien, maar efficiency is key in een datacenter. Zeker met de energie prijzen die we nu hebben.
Energiekosten zitten vooral in de productie van de chips, en die zijn bij chips met kleinere schakelingen hoger dan bij chips met grotere schakelingen. Natuurlijk zou je als je nu een server koopt voor een zo efficiënt mogelijke gaan, maar een oude machine vervangen is niet per se beter voor het milieu. Efficiëntere programmatuur maken heeft juist de voorkeur, dan kun je ook de kloksnelheid, een daarmee de spanning van de chips omlaag gooien, waardoor ze veel minder verbruiken.

Veelal kunnen computers tientallen jaar mee als je de voeding iedere tien jaar vervangt en eventuele condensatoren.

[Reactie gewijzigd door ByteArray op 27 mei 2023 17:26]

Digitalisering is efficiënter dan eindeloos bomen kappen voor vastlegging of brandstofverbruik door reizen. Beiden belasten het milieu zwaar en zijn grote productieketens.

Van de andere kant jaagt digitalisering zichzelf aan en verbruikt het meer energie. Het mes snijdt aan twee kanten.
Dat ligt eraan waar de stroom vandaan komt... Verbruik op zich zegt niks over het effect op het milieu.
Daarin tegen zijn er straks wel minder mensen nodig en dat betekent minder verkeer en minder microplastics in het milieu van de autobanden.
Kan je de datacenterproducten wel het label "GPU" geven? Verwerking voor AI toepassingen vind ik niet echt onder het werk van een "Graphics Processing Unit" vallen, ook al zijn deze extreem parallelle chips daar heel goed in.
In mijn ogen zijn het inderdaad geen videokaarten/gpu's maar accelerators.

De benaming heeft vermoedelijk te maken met het feit dat deze accelerators hun leven ooit, aan het begin van het ontwikkelproces, als "gpu" zijn begonnen.
H100 zijn puur datacenter GPU's !
Deze worden momenteel verkocht voor hou je vast 40.000 dollar !
De oude versie A100 gaat 15.000 dollar.
Dit is héél andere koek dan een 800€ gaming gpu'tje :)
Deze gast besteld z'n onderdelen bij HP :)

You special friend, I make for you special price, voor jou 10K nieuw alles, msg me :D
Ai... nog even en Nvidia besluit helemaal niet meer te concureren op de gamers GPU markt en kunnen we alleen nog maar over discussiëren of we een AMD of Intel Videokaart moeten kopen. Noooooo!
Zal niet gebeuren maar gaming wordt voor hen sowieso bijzaak. Beetje zoals Apple die nog tot voor kort iPods aanbood.
Tot heel de AI hype weer gaan liggen is en we de volgende hype ingaan :). Klinkt voor mij eerder als dat ze een reden willen zoeken om de prijzen weer de hoogte in te krijgen.

Elke software fabrikant draait tegenwoordig AI ergens in omdat het leuk klinkt. Of het daadwerkelijk bruikbaar blijkt is iets anders.

[Reactie gewijzigd door Powerblast op 26 mei 2023 19:38]

Het zal geen hype zijn en alleen maar verder doorontwikkeld en uitgebouwd worden. Uiteindelijk is het efficiënter en goedkoper dan mensen het kantoorwerk te laten doen
Iedereen met kantoorwerk buiten en geld verdienen maar.
Zo ook de CEO's en andere kaderleden kunnen dan perfect vervangen worden !
Als AI zo ontwikkeld is dan word het slimmer dan de CEO's van bedrijven, want ook een ceo kan je vervangen door AI. De vraag is dan hoe gaan al deze mensen de rekeningen betalen ?
Je kan dan niet anders dan naar een systeem gaan, you own nothing and you will be happy :)
Het is eigenlijk geen hype !
Het zijn gewoon leiders van bedrijven wereldwijd die volop inzetten op AI omdat het zeer veel dure jobs kan vervangen in hun bedrijven. Er zijn al tal van AI ontwikkelaars die ontslag namen om vrijuit te kunnen spreken welke gevaren AI met zich meebrengt in de toekomst ! Als zo een dingen gebeuren dat mensen hun dik betaalde job opgeven, om andere mensen in te lichten over de gevaren dan weten we hier nog half niet van !
Het probleem is een beetje dat chatgpt wel een soort indruk heeft gewekt alsof het opeens heel hard gaat. Maar in werkelijkheid is chatgpt nog steeds een model met een ruleset wat gewoon zoekt naar het volgende woord in de meest grote waarschijnlijkheid. Op zichzelf staande lijkt het heel slim en heel goed dat je er conversaties mee kan voeren. Maar het blijft een op zichzelf staand model wat alleen doet wat het moet doen. Het denkt niet na, het kan geen gegevens raadplegen als het iets niet weet, het kan niet bij leren en het kan niets oplossen want niet al opgelost was. Per saldo is het heel erg dom en alhoewel het de indruk geeft dat er binnenkort allemaal banen op de schop staan omdat AI opeens heel snel evolueert. Denk ik dat het in de realiteit eigenlijk wel mee valt en dat het inderdaad een hype is die is ontstaan omdat chatgpt de illusie van intelligentie geeft. En alhoewel het indrukwekkend is dat er nu een taalmodel is dat een aardig woordje met je kan converseren en er ook zo wat modellen zijn die je stem na kunnen doen en schilderijtjes na kunnen tekenen. Zijn dit allemaal modellen die niets meer kunnen dan dat. Maar wat betreft de AI waar we echt bang voor moeten zijn, een AI dat kan leren, oplossingen bedenken, autonoom kan functioneren, staan we eigenlijk helemaal niet veel verder dan pak em beet 5 jaar geleden. Sterker nog ik ben van mening dat veel dingen die we nu AI noemen, helemaal geen AI zijn. Chatgpt is geen AI. Het is gewoon een goed getraind taal model welke heel slim bedachte rulesets volgt icm met enorm veel data waardoor het intelligent ogend kan converseren. Maar het is geen intelligentie. Het is een kunstmatig taalmodel.
Dus er wordt wel degelijk op de hype train gesprongen op het moment. Want of we echt zelfstanding denkend intelligentie kunnen ontwikkelen. Ik moet het nog maar zien.
Om het in context te zien, chatgpt kan een spelletje pong programmeren omdat het ergens heeft gezien hoe het moet. Maar het kan niet iets coderen wat nog niet eerder is gedaan. En juist die vorm van kunstmatige intelligentie is er nog lang niet. En de vraag is of we die überhaupt nu wel kunnen maken.

[Reactie gewijzigd door ro8in op 27 mei 2023 00:13]

Precies !!!! Het echte AI moet nog worden gebouwd. En gaat nog lang duren. Ik denk dat we pas die kant opgaan, als we het menselijk brein helemaal van A tot Z hebben doorgrond. Dan pas zal de mensheid in staat zijn het te kopiëren naar een AI systeem. Als voorbeeld: Wanneer ik op een verkeerslicht af kom dat op rood staat, dan stop ik (heb ik geleerd).
Maar.... een mens kan toch de keus maken door te lopen (impulsief) , ondanks dat het gevaarlijk kan zijn.
AI zal dit impulsieve gedrag (op dit moment) dit nooit kunnen doen. Er zou een soort van willekeurige impulsiviteit kunnen worden ingebouwd, maar is nog steeds niet hetzelfde.
Een llm is het schoolvoorbeeld van AI. Klopt dus echt niet wat je zegt. Output van bv ChatGPT kan helemaal origineel zijn. Daarom ook de hallucinaties. Beetje net als hoe een mens beredeneerd.
En dat is het probleem het wordt als voorbeeld van AI gebruikt, het wordt AI genoemd. Maar het is geen AI. Het heeft geen intelligentie. Het volgt gewoon een set vooraf bedachte regels en die vooraf bedachte regels wekken de illusie alsof het slim is en begrijpt wat het doet. Maar dat doet het helemaal niet. Dat zie je op het moment dat je iets vraagt wat niet meer binnen deze regels passen, dan kan het opeens helemaal niets. Terwijl een levend wezen met intelligentie zal proberen om hier uit te komen, dat lukt dan misschien niet bij de eerste keer maar uiteindelijk zal het de puzzel wel kunnen oplossen en om het probleem heen kunnen komen. Dat is per definitie wat intelligentie is. ChatGPT stopt gewoon en zal niet proberen eruit te komen, sterker nog het is zich niet eens bewust van het feit dat het in een probleem zit. Het zal gewoon doorgaan met zijn ruleset volgen ook al geeft dat totaal verkeerde uitkomsten, het weet dat niet.
Als dit het schoolvoorbeeld van AI is, dan is het schoolvoorbeeld dus fout. Het is kunstmatig, maar het is geen intelligentie. Het is gewoon een model. Echte kunstmatige intelligentie zijn we nog helemaal geen stap verder mee.

Om een heel simpel voorbeeld te noemen in de film Jurassic park wordt er op een gegeven moment verteld dat die Raptors het hek nooit 2 keer op dezelfde plek aanvallen en dat zij onthouden waar ze het al eerder geprobeerd hebben, ze zijn intelligent wordt er gezegd. Het beest weet dat hij een probleem heeft en probeerd daar uit te komen door een oplossing te bedenken. Er is geen enkel model dat momenteel zich kan realiseren dat er een probleem is en daarop acteren. De vraag is dan ook of wij dat uberhaupt kunnen maken, ik denk dat we daar nog lang van verwijderd zijn. Zeker kunnen we de komende tijd wel allemaal handige modellen ontwikkelen die ons kunnen helpen, maar een echte baan vervangende AI. Ik geloof het allemaal niet zo.

[Reactie gewijzigd door ro8in op 27 mei 2023 13:34]

De term AI kent een wat ruimere definitie dan wat jij lijkt te hanteren, volgens mij heb jij het meer over een AGI en iedereen is het wel eens dat chatgtp daar niet aan voldoet.

Je onderschat verder de impact die een beperkte AI als chatgpt nu al kan hebben, al is het alleen maar als vertaler, hulp bij programmeren, hulp bij schrijven van teksten, hulp bij analyse van teksten, etc. En dan hebben we het nog niet over andere AI modellen die steeds meer gebruikt worden bij wetenschappelijk onderzoek en ook daar enorm nuttig blijken. Zal alleen maar meer worden komende jaren.

Dus idd we zijn nog niet bij een AGI , en dat zal vermoedelijk ook nog wel even duren, maar onderschat de huidige AI’s en hun impact niet.
Uiteindelijk is onze intelligente ook niet meer dan een heleboel chemische en elektrische processen die op basis van input output werken. Als je die op individueel niveau bekijkt is er niks intelligents aan. Het grote samenspel daarin tegen wel.
Ook chatgpt heeft een bepaalde complexiteit bereikt die haast onmogelijk is te reverse engineeren. Tuurlijk is een 64b llm model niet te vergelijken met onze hersens. Maar bepaalde principes zijn echt wel gelijkwaardig.
chatgpt is heel goed te begrijpen hoor. Het is een model welke heeft opgeslagen wat bij elk woord in de zin en alinea en gehele text de grootste kans maakt om het vorige woord op te volgen en zo bouwt het dus tekst op. Het is niets meer en niets minder. Het is een simpel trucje, dat met een enorme hoeveelheid aan data de illusie wekt dat het echt intelligent aan het antwoorden is. Maar dat doet het dus helemaal niet. Het is echt niet te vergelijken met wat er in onze hersenen gebeurd. Ik maak een logische zin omdat ik graag wil dat je begrijpt wat ik bedoel, maar ik kan net zo goed ervoor kiezen om een totaal onlogische woorden volgorde te gebruiken mocht er de situatie zich voor doen waarin dit beter uitkomt. Chatgpt zal nooit deze keuze maken. Het maakt helemaal geen keuzes eigenlijk. Inteligentie komt voort uit de gedachtes achter de keuzes die wij maken en de handelingen die wij doen. De modellen die nu beschikbaar zijn doen enkel onze handelingen na, maar er zit helemaal niets achter.

[Reactie gewijzigd door ro8in op 28 mei 2023 18:57]

Er was laatst bericht van corporatie dat 10000 banen wilt vervangen door AI.
Tja als 1 iemand die AI beheerd om wat 2 personeel leden week werk is reduceren tot dag. Je ziet dat CEO en aandeelhouder daar wel oren naar hebben als personeels resources kwa kosten post aanzienlijk gereduceerd kan worden. Beroep shift naar AI_operator.
Dit kan ook aanzienlijk concurrentie vergroten. Startups met klein team kunnen dan werk verzetten waar conventioneel veel groter team van specialisten nodig zijn. Nu heb je 1 of enkele goede AI operators nodig, dat kan leiden tot overvloed aan bedrijven die bepaalde dienst of product kunnen bieden.
Deels wel, want zelfs dingen die tien jaar geen "AI" werden genoemd, worden dat nu wel genoemd.
Metaverse was een aantal jaar terug ook booming. Nu hoor je er niks meer over. Ik ben pas onder de indruk als I Robot werkelijkheid word.
Metaverse is geen AI, is facebook (lees zuck, and only zuck) die denkt dat mensen staan te wachten om interactieve teams meetings te houden met je collega's waar je een VR bril op je kop moet hebben.

Nobody cares.
AI op zich is geen hype, maar er is wel degelijk een hype rondom AI.
Elke zoveel jaar krijgt de volgende technologie weer de nodige aandacht, dat is nu met AI niet anders. Gaat het echt potten breken? Ik weet het niet. Vind de aandacht die het nu krijgt wel leuk hoor vanuit een technisch standpunt, maar hoor nu vooral veel dat het ons leven volledig gaat omsmijten (geen bron, hoorde ik in meerdere tv interviews langskomen). Dat zie ik op dit moment niet gebeuren, misschien in de toekomst wel, maar zo zijn er al meer ontwikkelingen geweest die stilletjes terug uitdoven. Dus daarom definieer ik het als een hype.
AI is geen hype en wordt al concreet toegepast in de medische zorg etc etc. Het heeft het potentieel om allerlei beroepstaken structureel te veranderen etc.
Klopt, maar dat was vijf maand geleden voor de hype omtrent chatgpt ook al het geval en toen hoorde je er amper over.
heb je wel een beetje de ontwikkelingen gevolgd op AI gebied? Ik zit al 25 jaar in de computer science en ben niet snel onder de indruk maar AI en de snelheid waarmee de ontwikkelingen gaan op allerlei terreinen is echt wel een game changer.
AI, en de ontwikkelingen errond zijn geen hype, maar er zit wel een hele hype rond AI: managers, marketeers, zelfbenoemde experts, etc... die de grootste onzin rond AI uitkramen om toch maar hun producten te kunnen verkopen, of denken er personeel mee te kunnen vervangen (voor sommige taken zeker mogelijk, maar voor de meeste waar ze nu over roepen gaat het verre van evident zijn). Ik kan me al tal van managers/bedrijven inbeelden die "AI hardware" zullen aankopen zodat ze tegen hun partners of klanten kunnen zeggen dat ze AI gebruiken terwijl ze er eigenlijk geen klop mee doen.
Dit was ook mijn eerste gedachte.
Ooit... een paar uur geleden nog was de reactie dan ook met een '+2' ipv '0' beoordeeld. Maar tja dat zal dan wel symbool staan voor de state of Desktop PC gamers. ;-) Een kleiner wordende markt en de commercie die ons veel liever een nauwelijks te modden laptop/tablet/console ziet kopen.
zowel bij NVIDIA als bij AMD en Intel zitten de grote omzetten/winsten vooral in de datacenter-markt. Grote klanten krijgen dan wel korting, maar de marges zijn er een stuk hoger dan op consumer-GPU's
Misschien overdrijven ze de boel en is deze bestelling ook strategisch. Kan me goed voorstellen dat als ze bijvoorbeeld eerder bestellen dan een concurrent dat deze concurrent een nog groter probleem heeft met het leveren van hun product omdat ze in de rij staan te wachten voor chips
In het eerste kwartaal van het boekjaar 2024, dat eindigde op 30 april, behaalde Nvidia een omzetstijging van 19 procent ten opzichte van het eerdere kwartaal.
Kunnen ze bij Nvidia even delen hoe de aandelen het doen in 2024? Dan kan ik misschien vast wat investeren voor gegarandeerde winst.


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee