Google gaat zijn eigen AI-chips aan andere bedrijven verkopen

Alphabet gaat zijn zelfontwikkelde AI-chips aan andere bedrijven verkopen. Het bedrijf wil met het geld de nieuwe generatie AI-chips maken. Het gaat om de tensor processing units (tpu's) van Google, die tot dusver alleen in Googles eigen datacenters draaiden.

Het gaat om 'een selecte groep klanten' die de tpu's mag kopen, zegt Google bij de kwartaalcijfers. Bedrijven worden niet genoemd, maar Google merkt wel op dat onder meer AI-labs en bedrijven die aan high-performance computing doen meer vraag hebben naar tpu's.

Ceo Sundar Pichai zegt in een toelichting op de kwartaalcijfers de opbrengsten van de tpu-verkopen te willen investeren in de ontwikkeling van nieuwe tpu-chips. Bij die toelichting zegt Google dat 'een klein deel' van de leveringen eind dit jaar plaats zullen vinden 'en het merendeel in 2027'.

Pichai zegt dat Alphabet een 'terrific' kwartaal had met een omzet van 109 miljard dollar. Dit is 22 procent meer dan een jaar eerder. Ruim de helft hiervan kwam van Search & Other. Pichai zegt dat gebruikers vaker terugkeren naar Search vanwege AI-diensten als AI Mode en AI Overviews. De omzet uit Cloud – waar de AI-diensten onder vallen – nam met 63 procent toe tot 20 miljard dollar.

Het operationeel inkomen van Alphabet was afgerond 40 miljard dollar. Dit is 9 miljard meer dan een jaar eerder. Van het operationele inkomen kwam 6,6 miljard dollar van Cloud.

Alphabet kwartaalcijfers q1 2026

Door Hayte Hugo

Redacteur

30-04-2026 • 08:34

15

Submitter: JelleDJs

Reacties (15)

Sorteer op:

Weergave:

Kennelijk hebben ze een overschot aan AI chips op een tegelijkertijd oververhitte geheugen markt?
Ze hebben gewoon een prima product die is bewezen en de markt zoekt hard naar alternatieven voor gpu's die hier eigenlijk niet voor zijn gemaakt.
En zo herhaalt rijmt de geschiedenis. Hetzelfde gebeurde met cryptocurrency (eerst GPU, toen ASIC).
Ergens is het inderdaad wel interessant. Van specialistische chips in het begin, naar de CPU/GPU en weer terug naar meer specialistisch.
Het is niet echt een heen-en-weer / conjunctuur verhaal, meer marktwerking: Als de markt voor specialistische workloads groot genoeg wordt, wordt het ook rendabel om daar specialistische tools voor de vermarkten, zowel software als hardware.
AI-chips zijn zo gewild dat bedrijven bereid zijn om de extra kosten te betalen.

Vergelijk het met de huidige olieprijzen: brandstoffen zijn overal ter wereld duurder geworden. In het westen zijn we rijk genoeg om dat te betalen. We hebben wel inflatie, maar verder gaat het leven redelijk normaal door. In Azië zijn er veel meer mensen en bedrijven die de benzine niet langer kunnen betalen, waardoor de consequenties veel groter zijn.

Met geheugen zijn de bedrijven ("het westen") bereid te betalen en de verliezen te accepteren, terwijl de consument ("Azië") aankopen uitstelt of genoegen neemt met minder.
Ai is eigenlijk de doom scenario van dit tijdperk,

Je kan zeggen wat je wilt, het goed praten dit dat. Maar Ai is echt niet wat we nodig hebben. Gezond verstand helpt al genoeg. Ai is voor de meeste mensen een nieuwe luister buddy. Communiceren gaat tegenwoordig via Ai.

Ik vraag het Ai wel, die weet het vast wel dit en dat. Ai is je persoonlijke dokter, mensen gaan niet eens meer naar de dokter, luisteren liever naar een bot/

en dan maar alles goedpraten betreft Ai.
Ken je iemand in die situatie, dat het gebruikt wordt als vriend/dokter?

Ik denk dat AI een enorme uitdaging is en ik ben 100% voor regulering (op vlak van bescherming gebruikers, compensatie rechtenhouders, ...), maar ik denk niet dat we het nog terug weg krijgen.
Prive ken ik het, op werk ken ik ook mensen.

Die vragen alles tegenwoordig aan Ai doen zelf geen research niks meer.

ik persoonlijk gebruik ook Ai, puur om mails naar collegas te sturen. Ai kan heel goed lange texten van korte texten schrijven, fancy benaming, smilies etc.

Meer niet, maar gisteren nog een val gehad.

kiep/aanhanger werkt niet, mijn zwager, ik vraag het wel aan Chatgpt, kreeg echt meest belachelijke antwoorden, probleem is hij gelooft dat ook nog eens!!
Het vraagt enige ervaring om ermee om te gaan. Ik gebruik het op het werk ook, maar verifiëren wat eruit komt en zelf blijven nadenken is natuurlijk de belangrijkste stap.
Zijn het niet dezelfde mensen dit eerst Google en vage blogs gebruiken om exact hetzelfde te doen? Tenminste, dat is wat is vooral zie. Zelfde probleem, andere vorm
Meer dan 16 miljard tokens per minuut 😳

Is er iemand die hier wat context bij kan geven? Hoeveel tokens worden bijv. gebruikt bij een ‘gewone’ zoekopdracht en welk energieverbruik staat er tegenover bijv. 1 miljard tokens?
Ligt dat niet aan het model? Mijn simpele rtx5060 zit bij simpele modellen op 120+ per seconde. Zwaardere modellen performen voor geen meter per seconde :p

Edit, zie dat ze 1P modellen gebruiken als referentie. Dat is vrij indrukwekkend

[Reactie gewijzigd door Mellow Jack op 30 april 2026 09:46]

Most useless chip ever.

Tensor met 16gb ram in de pixels zijn nog trager dan 12gb telefoons van andere merken met ai
Ik denk dat dit puur om Anthropic gaat. Niet dat die ze direct gaat kopen, maar wel dat ze al van tevoren contracten hebben voor het gebruik.

Om te kunnen reageren moet je ingelogd zijn