Alphabet wil 2 miljard dollar in AI-start-up Anthropic investeren

Google-moederbedrijf Alphabet wil 2 miljard dollar in AI-start-up Anthropic investeren. Dat bedrijf maakt een concurrent voor OpenAI's ChatGPT. Eerder stak Alphabet al 300 miljoen dollar in het bedrijf.

Alphabet heeft Anthropic beloofd om in een keer 500 miljoen dollar in de start-up te investeren, en de resterende 1,5 miljard na verloop van tijd in het bedrijf te gaan steken. Dat schreven zowel Bloomberg als The Wall Street Journal op basis van ingewijden en heeft een Anthropic-woordvoerder later aan CNBC bevestigd. Welke voorwaarden er precies aan deze investering vastzitten, wordt echter niet genoemd.

Anthropic is in 2021 opgericht door voormalige hooggeplaatste werknemers van OpenAI. Sindsdien werkt de start-up aan meerdere AI-diensten. Zo heeft het reeds de AI-chatbot Claude 2 uitgebracht, en zou het volgens bedrijfsdocumenten die TechCrunch heeft ingezien werken aan een 'grensverleggend model', Claude-Next, dat tien keer beter moet presteren dan de krachtigste AI van het moment. Hieraan wil het bedrijf naar verluidt binnen anderhalf jaar een miljard dollar uitgeven.

Alphabet liet eerder al weten 300 miljoen dollar geïnvesteerd te hebben in het bedrijf voor tien procent van de aandelen. Vorige maand kwam Amazon al met de belofte om 1,25 miljard dollar in Anthropic te steken in ruil voor een minderheidsbelang, met de mogelijkheid om de investering gaandeweg te verhogen naar een totaal van 4 miljard.

Door Kevin Krikhaar

Redacteur

29-10-2023 • 10:17

47

Submitter: Opxah

Reacties (47)

Sorteer op:

Weergave:

"Hieraan wil het bedrijf naar verluidt binnen anderhalf jaar een miljard dollar uitgeven. "

Hoe geef je uberhaupt een miljard dollar uit in anderhalf jaar?

Kan iemand met meer kennis misschien uitleggen waaraan ze dat besteden en zorgen dat het op komt?
Je kunt toch maar zoveel personeel tegelijk aannemen en inwerken?
En een compleet datacentrum bouwen voor je training duurt ook langer dan 1,5 jaar toch?
Waarschijnlijk zijn heel veel kosten hier het trainen van het AI model. Een model trainen kost heel veel GPU tijd en ik kan mij voorstellen dat in de begin fase van het model je heel vaak het model (deels) traint.
Dat snap ik. Maar voor 1 miljard kun je toch erg veel gpu's kopen die 24/7 draaien. Die moeten wel allemaal een plek hebben in een datacentrum etc.

Of kopen ze die rekenkracht in bij een grote cloud provider, die ff een miljard extra omzet draait in een jaar dankzij dit?
Op de schaal die nodig is om een AI model op die schaal te trainen kan je niet zomaar de GPUs afnemen bij AWS of Azure. Daarvoor zal je honderden tot duizenden GPUs nodig hebben. Voor het trainen van Llama 2 70B heeft Meta 1.720.320 GPU uren gebruikt. En dat was alleen nog maar voor de 70B model, met de anderen erbij hebben ze meer dan 3.3 miljoen GPU uren geboekt voor Llama 2.... Je hebt duizenden GPUs nodig.

Dat is dan alleen nog voor training, dus die zijn dan maanden niet beschikbaar. Verder heb je nog onderzoeksapparatuur nodig. Nou laten we het houden op 3000 H100 GPUs voor training (omdat je dat parallel wilt doen en lekker snel, ook zegt het feit dat Llama 2 tot 70B parameters gaat niks over wat ze intern doen, Claude 2 heeft >130B parameters) en laten we er dan nog 2000 bij gooien voor intern onderzoek en dat is inclusief good measure. Meta heeft in hun RSC 760x DGX A100 systemen, voor >6000 A100 GPUs. Laten we de listprice nemen voor de DGX A100, dat is $199.000. Goed, dat is dus eventjes een koele $151.240.000. Dit is overigens niet de volledige schaal van Meta's RSC, die moet veel groter worden dan dit volgensmij.

Daarna personeel. Volgens Wikipedia hebben ze 160 werknemers (source is gecite, LinkedIn geeft de range 51-200 werknemers, dus dat is fine). Elke werknemer krijgt gok ik zo'n $100.000 gemiddeld per jaar, dat is wel fair voor AI researchers op dit moment. De markt is vol competitie en andere bedrijven zouden je graag willen, dus een gemiddelde van $100.000 lijkt me fair. Snelle Google searches bevestigen dit, met getallen ergens tussen de $45.000 tot $200.000, en sommigen claimen medians van $350.000, maar dat lijkt me wel hoog, hoewel ook niet onrealistisch. Als we uitgaan van 160 x $100.000 dan heb je $160.000.000 uitgegeven aan salaris PER JAAR. Goed dat bovenop je systeem aanschafkosten is 3/10de, ~310 miljoen als je meerekent.

Nu moet je ze nog allemaal ergens kwijt!! Nou dat krijg je nooit kwijt in een co-locatie aanbieder, dus daarvoor moet je je eigen gebouw hebben. Ik kan dat echt niet precies zeggen, maar laten we dat gewoon eventjes zetten op 200 miljoen voor het gebouw plus de extra troep als vervoer, installatie, koelingssysteem. Amazon geeft blijkbaar miljarden uit voor een nieuw AWS datacentrum, maar dat is natuurlijk veel meer dan enkel 6000 GPUs plus servers. We zitten nu op $500 miljoen. Ik denk dat dit trouwens een lowball is voor het datacentrum, maar sure.

Goed je hebt nu je datacentrum en mensen. Nu moet je die mensen laten onderzoeken en trainen. Elke H100 GPU gebruikt 400 watt. Het is zonde om infrastructuur ongebruikt te laten liggen, dus laten we zeggen dat 70% van de GPUs voor 80% van de tijd op volle 400 watt staan te draaien (je wilt niet je aanschafkosten verspillen door ze ongebruikt te laten). Dat is 80% per jaar. De andere 30% is voor onderzoekers en draait 100% van de tijd tijdens werktijden, anders staan deze uit (zonde, maar dat is voor de low estimate). We gaan nu uit van 8766 uren per jaar, daarvan 80% is zo'n 7013 uren. Dat is 7013 uur per jaar per GPU, dus dat is 70% van de GPU's ofwel 4200 GPUs ofwel 29.454.600 GPU uren per jaar voor de fulltime partij. Dan nog de uren voor de onderzoek GPU's. Een jaar werken laten we dat stellen op 1800 uren. ChatGPT berekend dat de gemiddelde Amerikaan 1900 uur per jaar werkt, maar deze onderzoekers zullen wel betere arbeidsvoorwaarden hebben (waarschijnlijk niet, maar low estimate yada yada). Goed dus dat is 1800 uur voor 1800 GPUs ofwel 3.240.000 uren per jaar voor de rest (zie je hoe zonde??) en dat is bij elkaar 32.694.600 uren per jaar. Voor 400 watt is dat 13.077.840 kWh, en met een gemiddelde prijs voor stroom in Californie (ik heb niet zoveel tijd om op te zoeken, ergens tussen de 20 en 30 cent, best hoog, dus laten we het op 20 cent houden.) is dat $2.615.569 aan stroom voor de GPUs alleen. Vergeet de koeling, plus de rest van de servers niet, en het internet, en whatever else.

We zitten nu nog rond de $500 miljoen. Ik durf te wedden dat de rest van de equipment in het datacentrum nog VEEEEL meer kost dan mijn kleine estimate van slechts een kleine $200 miljoen.

Mijn punt is: je gaat wel door een miljard heen in een jaar als je dit moet kopen lmaooo

PS. Zo... Weer iemand op het internet verteld waar het op staat... Goed, terug naar het werk.. Oh het is 5 uur. Mooi tijd om naar huis te gaan! Weer een harde productieve dag gehad!

[Reactie gewijzigd door Pokemoneuro op 24 juli 2024 22:33]

Het zou mij niets verbazen als Google investeert in het bedrijf, met de verplichting dat ze trainen op Google Cloud, en dat de kosten wegstrepen onderdeel is van de investering.
Volgens mij is Google hier niet bij betrokken, Amazon heeft vorige maand wel aangegeven 4 Miljard in te stoppen.
Je reageert op een artikel over google die 2 miljard investeert in dit bedrijf. Nog geen koffie op vandaag haha
Google is 1 van de vele dochters van Alphabet, en het mag dan de meest toonaangevende, grootse en bekendste zijn maar Alphabet heeft andere dochters als bijvoorbeeld GV en CapitalG en dat zijn de bedrijven welke investeren in ondernemingen die nog in hun groeifase zitten en een CapitalG is bijvoorbeeld een zelfstandig orgaan.

Ik had al 2 koffie op voor ik de vorige post maakte ;)

Vooralsnog is er geen info die wijst op een samenwerking met Google behalve dan dat een andere dochter van het moederbedrijf investeert, en dat is onvoldoende om de conclusie te trekkende er nu een samenwerking is.
Het is meer dan gebruikelijk dat wanneer dit soort investeringen gedaan worden dat er gekeken wordt naar synergieën. Ondanks dat we geen direct informatie hebben, is de kans dat ze wel in de Google Cloud gaan een stuk groter dan niet. De meest redelijke manier om hierover te spreken is dan ook dat ze wel in GCP zullen gaan, tenzij er andere informatie is. Niet dat ze niet in GCP zullen gaan, tenzij we bevestiging krijgen van wel.
Waarom zou die kans meer dan 50% zijn, terwijl een andere speler 2x zoveel heeft geïnvesteerd en als grootste cloud provider over een cloud service beschikt die veel groter is dan die van Google? En als klap op de vuurpijl draait Claude al een tijdje op AWS servers.

Nu kun jij ons vast wel vertellen waarom Anthropic zich zou gaan verplaatsen naar een kleinere speler die een kleinere investering heeft gemaakt.... :P

[Reactie gewijzigd door Groningerkoek op 24 juli 2024 22:33]

Ah, die info had ik even niet gezien. In dat geval ben ik het wel met je eens, dan is de situatie een stuk minder duidelijk en zou de uitgangspositie andersom moeten zijn.
Alphabet is niet hetzelfde als google
Ach is hetzelfde dat je zegt dat Meta en Facebook niet hetzelfde zijn, Alphabet heeft alles te maken met Google en vice versa.

Zijn namelijk echt verre van 2 losse entiteiten. De takken van Alphabet zijn zeer verworven met elkaar.
Onzin, Alphabet heeft bijvoorbeeld met CapitalG een zelfstandig opererende tak die investeerder is in start-ups.

Je kunt simpelweg niet zeggen dat Google en Alphabet uitwisselbare termen zijn.
De G in CapitalG staat letterlijk voor Google en heette eerst Google Capital.
CapitalG also comprises over 50 advisors from senior positions within Google
Dus ik kraam onzin uit?
Noch zeg ik dat ze uitwisselbare termen zijn. Alleen als mensen ze verwarren moet daar zeer zeker niet vreemd van worden opgekeken want veruit het meeste wat Alphabet doet heeft met Google te maken. Zoals @nowaychose ook aan geeft is hun nasdaw listing zelf GOOGL
Alphabets nasdaq listing is GOOGL
Het trainen van zo'n model wordt in kleine stukjes gehakt en parallel en gedistribueerd uitgevoerd.

Dit soort bedrijven gebruiken heel geavanceerde schedulers die workloads dispatchen naar de cloud waar de GPU cycles op at moment het goedkoopst is.

Zelf een DC bouwen en GPUs kopen is niet logisch omdat de behoefte enorme fluctuatie vertoont.
Ik vermoed dat Google met deze aankoop het signaal wil afgeven, dat AI alignment binnen de scope van hun doelstellingen valt.

Antropic wordt wel eens verweten AI doomerism te verkondigen. Voorop gesteld dat ik de beweegredenen van Antropic niet ken, kan er wat mij betreft niet genoeg AI doom worden verkondigd.

Conor Leahy gaf laatst aan dat er momenteel wereldwijd ongeveer 200 mensen (serieus) bezig zijn met AI alignment, tegenover miljarden en miljarden aan budget om AI verder te ontwikkelen. Het zou me niet verbazen dat het gros van dit budget wordt besteedt om een aanzienlijke groep kundige wetenschappers binnen te halen die aan dit probleem werkt. In de hoop zo een beetje vooruitgang op dit gebied te kunnen maken.
Het trainen gebeurt volgens mij in een deel van de gevallen ook door mensen. Heel veel mensen die daarvoor weliswaar per actie heel weinig betaald krijgen. Maar hoe meer geld, hoe meer mensen je kunt inzetten.
Daar zal wel een flink deel inzitten, ja, human assisted training of hoe ze het ook noemen. En er zit enorm veel troep in de data, dat moet je ook checken en eruit filteren en kost ook veel tijd en geld… dingen als plaatjes taggen, teksten beoordelen, bias bepalen…
Nee, google gebruikt al heel lang duiven hiervoor.

https://archive.google/pigeonrank/

Het is overigens absoluut geen probleem veel geld aan computers uit te geven.
Als je AI specific machines wilt gebruiken loopt de kostprijs al snel op. De Nvidia's DGX A100 heeft een sugestieprijs van €200 000.
Capaciteiten elders inkopen wellicht en voorbereidingen voor de toekomst
Eigen servers met dure NVidia hardware.
Kleine bedrijven opkopen voor tech, patenten of kennis.
Gebouwen over de hele wereld met vertegenwoordigers om het daar in de markt te zetten.
Om er wat te noemen.
Huur een heel hoop mensen in en maak een data center. Dan gaan je centen in eens heel hard.
Heb je wel eens gezien hoe snel een ChatGPT clone gaat op je eigen computer? Bij mij duurt het lang voor sommige chat models. Het volledige chat model 70B ofzo past niet eens op mijn GPU's geheugen.
Je hebt er dus dure servers voor nodig met alle huidige snufjes en veel RAM.
Veel mensen vergeten dat er veel data analyse nodig is, maar ook enorm veel tags moeten worden gelinked aan info en die moet geverifieerd worden. Denk aan duizenden en duizenden Indiërs, Pakistanen, e.d. die een jaar meer dan full-time werken om dat deel in orde te brengen.

Zo kom je al snel aan honderden en honderden miljoenen uit aan consultancykosten.
Allereerst heb je programmeurs nodig, en in het AI segment zijn die niet goedkoop. Dan heb je ook een leger aan statistici nodig, en die worden tegen bank salarissen van o.a. Quant afdelingen weggekocht. Maar het meeste geld gaat naar hardware en crowd sourcing voor verificatie en validatie van resultaten. Men zal je graag vertellen dat het hardware onderdeel de infrastructuur van Google kan gebruiken, in de praktijk zal dat misschien op netwerk infrastructuur van Google kunnen draaien, maar om responsiveness te garanderen zal men toch echt een heleboel dure processoren zullen moeten aanschaffen, die allemaal in beowulf clusters aan de slag moet gaan. Het meeste geld zal dus in hardware en mensen gestoken worden en reken er maar op dat om die modellen bij elke release te trainen, je op zijn minst tien duizenden mensen nodig hebt om tot een betrouwbaar AI model te kunnen komen. Als laatste zal men ook speciale databases moet inrichten en datasets dienen aan te kopen. Want met Google resultaten kom je niet heel ver als het om waarheidsbevinding gaat.
AI trainen kost geld aan infrastructuur. De meest geavanceerde AI GPU’s van Nvidia kosten soms €10k per stuk. Dat is natuurlijk inclusief de AI software die je helpt de modellen te trainen. Maar ze vragen door.

GPT4 trainen kost je makkelijk 400miljoen aan gpu-tijd en mensen.Topprofielen zijn ook erg duur. En nog krachtigere modellen gaan nog meer geld kosten.
Niemand zegt dat 'investeren' wil zeggen dat je alles op dag 1 uitgeeft.
Ze hebben het over 1.000.000.000 USD UITGEVEN in 18 maanden .. Dat is dan dus 56 Miljoen per maand of bijna 2 miljoen per dag ..

Klinkt mij in de oren als iemand die een slimme pitch maakt waarbij daadwerkelijk diverse mensen hun zakken gaan vullen met het verkopen van gebakken lucht. AI is de nieuwe dotcom bubble en bedrijven met teveel geld gaan daar graag mee proberen nog meer geld te printen.

Op een budget van 2M/dag kan ik een aantal heel slimme mensen voor een uitstekend salaris het werk laten doen terwijl ik zelf het merendeel van dat geld in mijn eigen zak steek.
Vergeet niet dat Amazon ook al 4mld gezegd heeft te investeren in september.

Het gaat hier echt om idiote bedragen, maar tegelijkertijd draait Meta 11 miljard verlies al op Metaverse dit jaar(!!!) dus het kan nog veel erger.
Bij AI gaat het waarschijnlijk bovenop een aantal heel slimme mensen:
- een heel legioen mensen voor het maken van datasets van enige kwaliteit
- een angstaanjagende hoeveel GPU's / AI accelerators met bergen en bergen VRAM
- hele bedrijven overnemen om een paar goede mensen daar in te kunnen lijven
- marketing machine moet ook draaien, de naam van ChatGPT is nu al veruit dominant
- snel verdere zaken inkopen die je niet al zelf hebt om meer vaart te maken, concurrent inhalen moet je

Dus ja, het zijn moeilijk voorstelbare bedragen, maar dit zijn ook enkel processen waar de financiële grootmachten zich voor nu op het grote speelveld kunnen begeven. Denk qua financiële omvang die je hiervoor moet hebben aan het kaliber Apple en Procter & Gamble, misschien dichter bij Nederland nog wel het beste Shell en Unilever. Niet dat die AI doen, maar zo groot en bekend moet je haast wel zijn om het entreekaartje te kunnen betalen om het exclusieve topsegment van de AI markt te kunnen betreden.

[Reactie gewijzigd door OruBLMsFrl op 24 juli 2024 22:33]

In de wereld van de grote it bedrijven zijn vrij normale bedragen om te investeren hoor. Allemaal geven ze al veelvouden uit aan het op peil houden van alleen hun infrastructuur.

Dus dat zo’n bedrijf een miljard of meer nodig heeft om een prototype te bouwen is niet gek.

Uiteindelijk moet je bedrijven als Google
En Microsoft gewoon vergelijken met de
Uitgaven die kleinere landen doen want zo groot zijn hun budgetten.

Eigenlijk dus zo groot dat je het bijna niet voor kunt stellen.
Software engineers, het is niet gek om 200/500K salaris te zien. en dan nog servers nvidia is geld aan het binnen harken met die AI chips
Claude.ai is nog niet toegankelijk in Nederland en België.

Ik wilde "hem" even vragen wat er zoveel beter aan is dan ChatGPT, maar ik zal dus even moeten wachten.

[Reactie gewijzigd door Uruk-Hai op 24 juli 2024 22:33]

Nou je kunt het chatgpt/copilot ook vragen:

Waarom is claude.ai beter dan chatgpt
Searching the web for: claude.ai vs chatgpt
Generating answers for you…


Claude en ChatGPT zijn beide generatieve AI-modellen die gebruikt kunnen worden voor verschillende taken, maar ze hebben enkele verschillen. Hier is een vergelijking tussen de twee:

Kennisbasis en taalondersteuning:

Claude: Claude ondersteunt momenteel alleen het Engels en enkele andere talen. Het heeft een beperktere kennisbasis dan ChatGPT.
ChatGPT: ChatGPT kan wereldwijd worden gebruikt en ondersteunt meer dan 90 gesproken talen. Het heeft een uitgebreidere kennisbasis.
Token-grootte en verwerkingstijd:

Claude heeft een grotere token-grootte, wat betekent dat het toegang heeft tot een grotere kennisbasis. Dit kan nuttig zijn voor complexe taken.
ChatGPT heeft een kleinere token-grootte, maar het is sneller in het genereren van antwoorden.
Taken en prestaties:

Claude blinkt uit in het omgaan met complexe taken zoals het samenvatten van artikelen en het analyseren van gegevens.
ChatGPT presteert goed bij het oplossen van coderingsproblemen, het uitleggen van resultaten en algemene outputformatting.
Aanbeveling:

Als je voornamelijk complexe taken hebt, zoals gegevensanalyse, is Claude wellicht de betere keuze.
Voor een breder scala aan toepassingen en superieure prestaties is ChatGPT de aanbevolen optie12345.
Ik hoop dat dit je helpt bij het begrijpen van de verschillen tussen Claude en ChatGPT! 😊
Het haalt dingen door elkaar heen! Het bedoelt het begrip “context window” in plaats van token-grootte en mist de concrete voorbeelden.
Claude2 heeft een 100K context-window in plaats van een 8K/16K context window zoals bij GPT-4. Wat betekent dat je bijvoorbeeld een gehele paper, of PowerPoint presentatie of een otter.ai transcriptie van een hoorcollege als pdf kunt uploaden om samen te vatten. De samenvattingen zelf zijn bij Claude2 minder precies als bij GPT-4, maar bij GPT-4 kun je zonder vector embeddings niet zo makkelijk zulke lange teksten uploaden.

[Reactie gewijzigd door Weicool op 24 juli 2024 22:33]

Door een US Tello of UK O2 e-simkaart te downloaden met zowel internet als SMS roaming kun je best die geoblokkade van Claude.ai omzeilen! VPN en VoIP numbers uit de US en UK worden helaas wel geblokkeerd bij Claude.ai
Claude is gewoon te gebruiken via Quora Poe op www.poe.com
Over een paar maanden of misschien zelf jaren gaan wij hier een artikel lezen dat Anthropic eigenlijk niets meer was dan een middelmatig GPT kloon of erger.
Ik kan zeker fout zijn want, wie ben ik om daar iets over te zeggen, maar miljarden pompen in zo goed als alles waar dat AI opstaat lijkt mij een bubbel. En bubbel ploffen nu altijd.


Trouwens, hoe vaag is de zin: voormalige hooggeplaatste werknemers van OpenAI.
Dit kan evengoed een ontslaan persoon zijn of zelf iemand van HR.
Ik zou het niet een bubbel willen noemen, AI is op dit moment een markt die enorm in ontwikkeling is maar ook een markt die een enorme groei te wachten staat in zowel toepassing als omzet. Op dit moment is er meer een "gevecht" gaande om wie de beste/best toepasbare AI's kan ontwikkelen. En die bedrijven kunnen daar kapitalen mee verdienen. Ik zie dus zeker niet deze markt straks instorten waarbij alle investeringen verdampen.

En "hoe vaag is de zin: "

Het gaat in dit geval om een groep mensen die toonaangevende functies hadden bij OpenAI en die gezamenlijk vertrokken omdat men een ander idee had over hoe een bedrijf te draaien.
Hmmm een bubbel zou ik het echt wel willen noemen.

Momenteel moet en zal iedereen overal AI implementeren. Probleem met de huidige AI is dat de kosten echt bizar hoog liggen en de pan uit rijzen. De hoeveelheid geld die ee tegen aan wordt gesmeten momenteel is pure venture capital en dat zal ophouden op een gegeven moment.

Microsoft copilot schijnt zelf met een 20euro/m subscriptie zware verliezen te draaien. Moet je nagaan wat bingChat (gratis GPT4), bard en chatGPT ook niet kosten.

Nee er zullen zeer veel bedrijven op de fles gaan wanneer de geldstroom stopt/de hype daalt. Momenteel is AI ontwikkelen ver buiten de capaciteiten van elk bedrijf zonder met gigantische bedragen te smijten.
Je moet dit soort AI modellen zien als platformen waarop dadelijk door iedereen AI toepassingen worden gebouwd. Zie het als een startende AWS of Azure clouddienst en je snapt de potentie en de reden waarom er zoveel geld in wordt gestopt (naast dat het ook ontzettende veel geld kost om te ontwikkelen).

[Reactie gewijzigd door PV85 op 24 juli 2024 22:33]

Het is nog veel erger: die directeur van Anthropic was de voormalige hoofdonderzoeker die verantwoordelijk was voor GPT-3 bij OpenAI, maar daarna bij OpenAI weggelopen is om voor zichzelf te beginnen! Dus is het geen toeval dat er overeenkomsten zijn tussen beide modellen!

[Reactie gewijzigd door Weicool op 24 juli 2024 22:33]

Funfact: via het moederbedrijf van de failliete exchange FTX is er in een heel vroeg stadium vrij veel geld geinvesteerd in Anthropic. De waarde van deze investering is dan ook sterk toegenomen. Mede hierdoor (en ander gevonden geld door de curatoren) is de kans heel groot dat iedereen zijn geld weer terug keijgt van FTX.
Dit heeft volgens mij puur te maken met de exclusiviteit van openAI naar Microsoft/Azure. Om te kunnen blijven concurreren gaan Amazon/AWS en Google/GCP nu de krachten bundelen op het gebied van AI.
Dit zijn zulke serieuze bedragen, net als wat er omgaat in de ruimtevaart. Ik begrijp dat er nieuwe technologieën uit voort komen, maar bedenk wat je met twee miljard kan doen bijv. tbv het wereldwijd beschikbaar maken van schoon drinkwater en voldoende voedsel.

Op dit item kan niet meer gereageerd worden.