Microsoft onthult nieuwe AI-chip Maia 200 die wordt gebruikt voor GPT-5.2

Microsoft heeft de Maia 200-chip aangekondigd. De chip is geproduceerd op een 3nm-proces van TSMC en is volgens Microsoft bedoeld voor inferentie. De chip levert meer dan 10Pflops fp4-rekenkracht en ruim 5Pflops fp8-rekenkracht.

De Maia 200
De Maia 200

Volgens Microsoft is de chip op veel punten sneller dan Trainium 3- en TPU v7-chips van respectievelijk Amazon en Google. De chip bevat in totaal 140 miljard transistoren en is uitgerust met 216GB aan HBM3e-geheugen met een bandbreedte van 7TB/s en 272MB sram. Het tdp van de chip bedraagt 750W.

Microsoft kiest op systeemniveau voor een nieuw, tweelaags ontwerp op basis van ethernet met een aangepaste transportlaag. Elk Maia 200-systeem biedt een bandbreedte van 2,8TB/s tussen chips en ondersteuning voor clusters van maximaal 6144 accelerators. Binnen een rack zijn vier Maia-accelerators volledig verbonden via directe, niet-geschakelde links.

De Maia 200 presteert volgens Microsoft per dollar 30 procent beter dan de nieuwste hardware die het bedrijf momenteel gebruikt. De chip wordt onder meer gebruikt voor de inferentie van de nieuwste GPT-5.2-modellen van OpenAI. Daarnaast zal het Microsoft Superintelligence-team de chips gebruiken voor het genereren van synthetische data.

De eerste chips zijn al actief in een datacenter in het Amerikaanse Iowa. Binnenkort zal Microsoft de Maia 200 ook inzetten in de datacenterregio US West 3 in Arizona. Later zullen andere regio's volgen. Microsoft stelt ook een preview van de Maia-softwaredevelopmentkit beschikbaar met tools voor het bouwen en optimaliseren van modellen voor de nieuwe chip. De sdk bevat onder meer integratie met het framework PyTorch, een Triton-compiler en een low-level programmeertaal. Daarnaast biedt de sdk ook een Maia-simulator en een kostenberekeningstool.

De Maia 200 tegenover de Trainium3 en TPU v7
De Maia 200 tegenover de Trainium3 en TPU v7

Door Imre Himmelbauer

Redacteur

26-01-2026 • 19:54

58

Reacties (58)

Sorteer op:

Weergave:

Mooi. Kom maar op met de alternatieven voor Nvidia. Hoe eerder zij weer GPU's gaan maken, hoe beter.
In begrijp wat je wil zeggen maar zo werkt het niet. Ook Microsoft neemt productiebanden in die vroeger ram en GPU’s maakten voor PC’s. En aangezien de marges daar lager liggen wil niemand nog PC gear maken.

Ik weet niet wat de oplossing is maar nu zowat elk groot techbedrijf eigen AI-chips aan het maken is (inference, dus modellen draaien ipv trainen) blijft er bitter weinig productiecapaciteit over voor gewone non-Ai hardware. En dit kan jaren duren.

AI is ondertussen too big to fail = dit gaat door tot 2030+ zonder fail. Een correctie kan maar niet morgen. Dus we gaan het nog heel lang mogen uitzitten. Elke nieuwe productiecapaciteit gaat naar de hoogste bieder.

Pas als blijkt dat AI verzadigd is en er een correctie komt in de vraag, dan zal er plots weer interesse zijn in consumer/business gear. Maar dit is niet voor morgen want veel fondsen speculeren op de long run. Geld gaat dus blijven rollen.

Niet dat AI dan verdwijnt bij een correctie, het zal nog steeds en driver zijn maar minder. Dan komt er weer productiecapaciteit vrij. Dat gaat mogelijk gepaard met een beurscorrectie maar dat is ander koek. Het voordeel is wel dan wel terug hardware aan deftige prijzen kunnen kopen. Gokje: 2031.

[Reactie gewijzigd door Coolstart op 26 januari 2026 21:00]

Ik zie het echt niet gebeuren dat de hele boel zichzelf blijft financeren tot 2030 eigenlijk, op een gegeven moment is de hoeveelheid geld die op te halen valt gewoon op. De bedragen die rondvliegen gaan inmiddels al ver boven de totale vermogens die amerikaanse VC's beschikbaar hebben en zelfs de investeringen van grote spelers als SoftBank (tientallen miljarden) zijn inmiddels peanuts met wat figuren als Sam Altman en Jensen Huang mee strooien (meerdere biljarden). Op het gegeven moment stopt de geldkraan en ik denk niet dat dat per se nog heel lang hoeft te duren, hoe graag de partijen die er van profiteren (NVidia vooral) het ook willen. Er zijn al steeds meer signalen dat geld een probleem begint te worden, denk aan OpenAI die nu al ads gaat toevoegen, Anthropic die hindernissen aan het opwerpen is voor externe tools waarschijnlijk omdat ze bang zijn dat andere modellen ook goed genoeg beginnen te worden dat mensen makkelijker kunnen switchen etc.
Je moet het topic volgen. Alle grote datacenters zijn ingepland. Deel 1van Project Stargate gaat pas in 2028 gebouwd worden. Dat is een samenwerking tussen grote bedrijven zoals OpenAI, SoftBank, Oracle, MGX met tech partners OpenAI, Nvidia en Microsoft. Ze mikken op 10 gigawatt datacentervermogen. Die bouw duurt natuurlijk even en de energiecentrales (gas) bouwen kost ook tijd.

In 2028 begint het pas. Dus claimen dat 'het geld op is' klopt niet. Het begint nog maar pas. We hebben gelijkaardige dingen gezien in de Olie en gas Capex. Dat gaat ook over honderden en honderden miljarden. Het zou natuurlijk kunnen zijn dat het trager gaat dan voorspeld en en dan zit je sowieso in de jaren 30 van deze eeuw alvorens AI echt piekt. Dan blijft de prijs eerder hoog tot ver in de jaren 30.

Alles zal er ook wat vanaf hangen welke doorbraken er zijn rond autonoom rijden, lokale inference AI op smartphones, AI agents en Proto AGI. Dat bepaald de richting en vooral ook de snelheid en intensiteit.
De bouw van datacenters die nu gebouwd worden of er al staan is natuurlijk al gefinancierd, maar de investeringen in datacenters die in de toekomst gebouwd moeten worden zijn op dit moment niet meer dan toezeggingen gefinancierd met circulaire deals. Dus NVidia die zegt x miljard in OpenAI te investeren als OpenAI eerst voor 10x miljard aan NVidia GPU’s besteld voor een nieuw te bouwen data center, etc. Dat OpenAI eerst weer ergens anders geld vandaan moet halen door iemand anders te laten beloven dat ze tzt een groot deel van de investering willen financieren betekent dat of OpenAI winstgevend genoeg moet zijn om de investering te kunnen verantwoorden of op enig moment het geld op is omdat er niemand meer is die gelooft dat OpenAI winstgevend wordt voordat ze hun investering terug willen zien. Als ergens in het cirkeltje een schakel hapert dan valt de hele constructie in elkaar en valt de bouw van nieuwe data centers gewoon stil.

Momenteel is helemaal niks winstgevend in AI land. De bouw van data centers is totaal niet te vergelijken met de uitbouw van olie infrastructuur, want elke olie put of platform die je bij bouwt is direct winstgevend als hij draait, omdat iedereen olie wil en bereid is ervoor te betalen. De data centers die nu gebouwd worden kunnen (op dit moment) alleen maar draaien omdat ze via dezelfde circulaire deals gesubsidieerd worden door de producenten van de hardware die er in staat (=NVidia). Ik ben meer van de vergelijking die wel eens wordt gemaakt met de railroad boom in de VS, toen werden er ook astronomische bedragen in niet winstgevende infrastructuur gestopt met het idee dat je erbij moest zijn als investeerder, en dat resulteerde uiteindelijk ook in een crash.

[Reactie gewijzigd door johnbetonschaar op 27 januari 2026 15:08]

De bouw van data centers is totaal niet te vergelijken met de uitbouw van olie infrastructuur, want elke olie put of platform die je bij bouwt is direct winstgevend als hij draait, omdat iedereen olie wil en bereid is ervoor te betalen.
Er is een reden waarom men bepaalde boringen enkel wil doen met overheidsganranties omdat als de olieprijs zakt de boring niet meer rendabel is. Zo probeert men ook Rusland stuk te krijgen door de prijs van een vat olie onder de productiekost te krijgen. Niet overal is Olie even goedkoop.
Ik ben meer van de vergelijking die wel eens wordt gemaakt met de railroad boom in de VS, toen werden er ook astronomische bedragen in niet winstgevende infrastructuur gestopt met het idee dat je erbij moest zijn als investeerder, en dat resulteerde uiteindelijk ook in een crash.
Wat je daar beschrijft is een correctie. Het kaft werd van de koren gescheiden. Er was veel corruptie, slechte lijnen, dubbele lijn etc. Maar spoorwegen waren wel degelijk heel erg belangrijk in die tijd. De spoorwegen in de 19e eeuw revolutioneerden wel degelijk het transport.

AI is natuurlijk nog fundamenteler. Het én een revolutie zal betekenen in transport, én in software ontwikkeling en in automatisering en in marketing en in noem maar op. AI is zo fundamenteel als halfgeleiders en misschien nog wel meer.
Momenteel is helemaal niks winstgevend in AI land.
Inference is wel winstgevend. Daar zijn echt veel voorbeelden van. Clause inference API gaat als een speer. Bedrijven die er aan gekoppeld zijn zoals Cursor of Windsurf groeien ook als kolen terwijl ze grote Capex kosten dragen voor de ontwikkeling. Zelf dan zie je redelijk goede cijfers.

Winst maken is ook helemaal het doel niet. Vaak is het gewoon marktaandeel verwerven en een goed fundament bouwen. De Claude API is vooral populair bij devs. En naarmate de modellen krachtiger en beter worden en er meer services komen kwamen er ook meer afnemers. N8N bijvoorbeeld. Een game changer voor bedrijfsprocessen.

Het kan best zijn dat er een correctie komt op AI. Dat kan, maar dat wil niet per definitie zeggen dat we dan plots weer goedkope RAM krijgen voor consumenten. Dat zou enkel mogelijk zijn dat er teveel AI fabrieken zijn gebouwd die nu hun chips niet meer verkocht krijgen. Dat kan zeker maar als je gewoon kijkt naar de adoptie, nut, progressie en fundamentele meerwaarde in elke hoek van de economie van AI dan kan ik mij dat niet inbeelden.
Microsoft en nVidia ontworpen alleen de chips. De fabrikant die deze daadwerkelijk maakt is nog steeds dezelfde, dus helaas.
Los daarvan is dit een chip speciaal voor Azure. En de nVidia chips in dit segment zijn fundamenteel anders en daarom slecht te vergelijken met deze.
Juist. Dit is echt niet meer dan een inference ASIC. De chips van Nvidia zijn wat breder inzetbaar. Daarom staan ze ook niet in de vergelijking van Microsoft. Daar staan alleen vergelijkbare ASICs in.

[Reactie gewijzigd door MrFax op 27 januari 2026 03:56]

Dat klopt natuurlijk, maar uiteindelijk gaat dedicated AI hardware wel het verschil maken.

Want, ergens komt er een eind aan hoeveel hardware je nodig hebt. Wanneer je dit WEL kunt bereiken met een dedicated chip, zal er meer ruimte over blijven voor andere hardware.

De nvidia GPUs zijn natuurlijk allround chips, maar dat levert ( waarchijnlijk) ook ineffcienties op
Ik heb er niet zoveel verstand van, maar kan dit dus betekeken dat uiteindelijk ASICS volledig de GPU's gaan vervangen, net zoals toen met de Crypto hype waar op een gegeven moment de GPU's niet meer konden concureren met ASICS.

Wat je toch vaak is dat hardware die dedicated gericht is op 1 doel vaak sneller en effiecienter dan iets wat breed inzetbaar is.
Tot nu toe kunnen geen chips van Google, Amazon of Microsoft kopen.
En het zijn geen GPU's maar TPU's, chips gespecialiseerd in matrix en vector operaties, specifiek gericht op 4 en 8 bit floating points.

Voor deze chip is het getal 51 gelijk aan het getal 52 bijvoorbeeld. Voor het uitvoeren van geoptimaliseerde AI-modellen geen probleem, maar voor het bijhouden van scores is een game of je boekhouding best lastig.

De TPU van Google zien er zo uit
https://cloud.google.com/...vms-for-your-ai-workloads
En hier is detail informatie:
https://docs.cloud.google.com/tpu/docs/tpu7x

[Reactie gewijzigd door djwice op 26 januari 2026 21:54]

Een heleboel mensen denken nu dat Bezos en Jensen niet meer willen dat mensen nog gewone PCs kopen maar in plaats daarvan via de cloud alles gaan doen inclusief gaming. Maar dan heb je inderdaad niets aan de AI datacenters waarin nu vele honderden miljarden dollars worden geïnvesteerd. Die zijn daar totaal ongeschikt voor.
Tenzij je via je telefoon alleen commando's stuurt naar de cloud: huiver mee: https://clawd.bot/
=>
https://github.com/clawdbot/clawdbot

[Reactie gewijzigd door djwice op 27 januari 2026 00:11]

Dit is een compleet andere klasse chip volgens mij en niet perse een GPU. Klinkt als een dedicated AI chip.
De chip levert meer dan 10Pflops fp4-rekenkracht en ruim 5Pflops fp8-rekenkracht.
Hoeveel is dat in gegenereerde megaslop per seconde? 😋
Ik kan niet wachten tot de Vogons de nieuwe snelweg komen aanleggen...
Een tdp van 750 wat.... Ai is handig maar het heeft wel problematische kosten.
Maar 600 watt tdp om spelletjes te spelen is geen issue?
En terecht.

Deze chip word ingezet voor iets waar iedereen gebruik van zou kunnen maken. Om dan over die 750w te vallen, terwijl een enkele GPU voor een iemands vertier al 600w zou kunnen stoken..
Ik dacht alleen aan de TDP van moderne CPU's. Maar inderdaad GPU TDP is al net zo hoog.

Maar de meeste mensen zitten niet 24 uur lang te gamen. Het totale energie gebruik is dus vele malen lager.


Maar het gaat ook om meer dan het energie gebruik. Water is ook een ding en ga zo maar door.

[Reactie gewijzigd door bzuidgeest op 27 januari 2026 10:44]

Hoewel LLM's aardig wat energiebudget toegekend krijgen, zegt het energieverbruik van een enkele processor natuurlijk niets over het groeiende verbruik van AI-toepassingen. Dat bereken je op basis van de prestaties per watt.
Om maar een voorbeeld te noemen uit het artikel zelf: de Azure Maia 200 heeft voor FP4 vier keer de rekenkracht van de AWS Trainium3. Dus als het exact 750 watt gaat verbruiken, dan zou de AWS chip circa 188W moeten gebruiken om gelijk uit te komen. Een snelle zoekopdracht laat me zien dat die processor 1000W TDP heeft.

De FP4 in nieuwere hardware is sowieso een effectieve manier om meer inference-taken bij een gelijk energieverbruik te kunnen uitvoeren. Het gebruik van dit soort processoren zou je dus juist kunnen aanmoedigen t.b.v. energiebesparing (t.o.v. een alternatieve realiteit waarbij we gewoon meer datacenters met "ouderwetse" GPU's bouwen).
Het is natuurlijk een verbetering, maar het is nog steeds een hoop. Ook een hoop warmte die moet worden afgevoerd. Ik hoop dat ze het nog veel beter kunnen krijgen dan dit. Want echt geweldig vind ik het nog niet
Hangt er natuurlijk van af hoeveel en waar deze gebruikt worden.
Heb je dergelijke processor thuis liggen (216GB :o ) dan zal deze maximaal 750W verbruiken als je hem effectief gebruikt.
Je staat ook niet stil bij de Senseo die 1500W verbruikt. Deze werkt ook maar een paar keer per dag...

Misschien kunnen ze kleine AI datacenters zetten per wijk om het net te stabiliseren op zonnige dagen. :+
Ik hoop gewoon dat ze een manier vinden om het nog veel zuiniger te maken. Anders hebben we nog een hoop zonnepanelen nodig.
Daar stond al een hoop op de planken dacht ik.
Een gigantische datacenter-kost (die niet in die TDP zit) is koeling. Ik dacht dat 1/3 van het stroomverbruik ligt aan koeling.

De chips op basis van fotonen zorgen al voor een drastische koeling van onze datacenters, zeker bij AI. Want deze gaan tot op heden nog door veel koper dat warm wordt door de hoeveleheid stroom om zonder te veel signal noise op zijn bestemming te komen.

Nu moet ik ook toegeven dat er vaak ook niet bijgezegd wordt dat die warmte vaak gebruikt wordt om stoom/warm water te maken of zelfs zwembaden te verwarmen. Dit is dan weer stroom die uitgespaard wordt.

Ook zijn trinaire chips iets wat toekomstpotentieel heeft. (chips die niet 0 en 1 hebben, maar -1, 0 en 1).
Je kan op eenzelfde aantal datalijnen pakken meer data doorsturen. (is telkens ^3 ipv ^2). Dus ofwel sneller data verzenden op hetzelfde aantal lijnen ofwel even snel data verzenden op minder lijnen; minder lijnen is dan betere signal-to-noise ratio. Ook is dit logischer omdat je bvb geen teken-bit nodig hebt. (signed vs unsigned integer). Deze chips zouden tussen 30% en 60% zuiniger zijn (in theorie natuurlijk) Dit soort chip is overigens dé chip voor inference engines (neurale netwerken).
Overigens zou een TNN (Ternary Neural Network) to 90% minder stroom verbruiken.

Daarnaast is IMEC zijn nieuwe Wolfraamdiselenide (ja, heb ik moeten opzoeken) vervanger voor silicium ook erg interessant. Deze hebben minder lekstroom en kunnen op eenzelfde voltage beter stroom doorsturen. Dit was 1/4 reductie in verbruik omdat er minder verloren gaat. Mijn amateuristische geest denkt dan "1/4 minder naar warmte". Dat zou van 750W dus 560W maken.
De chips op basis van fotonen
Dat is voorlopig nog alleen lab spul, niets van in productie.
Ook zijn trinaire chips iets wat toekomstpotentieel heef
Wiskundig/theoretisch ja, maar ze zijn niet praktisch. Om het praktisch te doen heb je een schakel element nodig op nano schaal dat 3 staten kent. En de transistor voldoet niet. Die heeft aan of uit. En dat element moet ook nog eens snel kunnen schakelen.
Daarnaast is IMEC zijn nieuwe Wolfraamdiselenide
Nog zo verre van productie iets, maar in ieder geval eentje die niet voorlopig een natte droom is.


Ik hoop natuurlijk altijd dat morgen een nieuwe Einstein als je dingen praktisch maakt. Maar realistisch gaat alleen de laatste in die rij op korte termijn ook maar iets bijdragen en zelfs die laatste is verre van zeker denk ik,

[Reactie gewijzigd door bzuidgeest op 27 januari 2026 17:13]

Een trinaire chip moet niet -1V, 0V, 1V te zijn; dit kan ook 0V, 1V, 2V te zijn.
Een transistor is een analoge schakel. We gebruiken hem vaak digitaal, maar deze werkt niet van nature als 'aan/uit'. Je kan hier traploos mee regelen hoeveel stroom er doorheen gaan.
Bedenk ook dat bvb in opslag dergelijke verwerking reeds bestaat (MLC)

De reden waarom we het bij processoren nog niet doen ligt eerder aan ruismarges en niet dat een transistor het niet kan.
Een transistor van Max uit naar Mac aan forceren is veel makkelijker en sneller dan proberen ergens halverwege te mikken. Het is niet dat het element het niet kan, het is dat het geen voordelen bied. Het is langzaam, complex,, vereist allerlei extra electronica. Tenzij je een element kan vinden dat 3 vaste vlugger states kent gaat het geen succes worden.
Jorgen Moderator Beeld & Geluid 26 januari 2026 20:40
Ondanks dat het zeer jammer is dat de consument op korte termijn met tekorten en hoge prijzen te maken heeft, kan hier net als bij ruimtevaart en formule 1 natuurlijk ook een boel uitkomen dat wel zijn weg vindt naar gewone huishoudens.
ik erger me kapot aan de circlejerk tussen AI-bedrijven die elkaar allerlei waanzinnig dure chips toeschuiven. Er blijft nauwelijks productiecapaciteit over voor zelfbouw zo. Deze bubbel kan snel genoeg knappen.
Nog meer chips voor nog meer oneindig veel AI onzin die ons compleet overspoelen. Ondertussen worden klimaatdoelen niet gehaald, mede vanwege de extreme energieverspilling die deze volstrekte waanzin allemaal brengt, want dat is het voor 99%. Ja, AI is prachtig, maar het wordt zo extreem slecht ingezet. Vrijwel elke presentatie die ik zie begint met: Ik heb ChapGPT gevraagd... Verzin zelf wat en haal AI erbij als het echt wat kan toevoegen. Een groot deel van de mensheid stopt ten koste van alles met nadenken door deze gekte.
Glas-halfvol statement: Freubel-AI voor stupide onzin op social media is een bubblehype, maar tegelijkertijd een springplank naar verdere ontwikkeling en het nuttig inzetten van AI bij écht onderzoek naar nieuwe tech.

In dit scenario negeer ik de dommemensenbullshit zonder er verder aan te denken, eigenlijk zoals ik de afgelopen 20 jaar al doe, en verheug ik me vooral op de technologische doorbraken die onze wereld een stukje mooier gaan maken.
Alleen is sterke AI nog puur sciencefiction. We hebben uitsluitend generatieve AI en agent AI. Hoewel die basis taken kunnen uitvoeren, hebben die nul intelligentie. Er worden wel pogingen gedaan sterke AI te maken, maar een heel groot struikelblok voor sterke AI is het gegeven dat je alle super computers op aarde moet combineren om een brein met even veel neuronen als een mens te kunnen creëren. En dat het erg lastig is gebleken om een machine met intelligentie exact te laten doen wat van die machine verwacht wordt.

Het duurt nog tientallen jaren voor we daar ook maar in de buurt komen. En dan heb je de rekenkracht, maar nog geen sterke AI. Want de LLM's lenen zich niet voor sterke AI. Het zijn twee compleet verschillende dingen.
Het risico is echt typisch, Jevons law, dat omdat het er is, je er meer van gaat gebruiken en meer toepassingen gaat vinden, etc..

N.B. ben hobby gebruiker van aider.chat met lokale modellen.
Mee eens, zeker als je nu weer ziet wat Microsoft daar in Amsterdam neer gaat zetten, dit alleen weer puur voor AI tja... En tja ik kom nog uit de tijd dat je geen pc had en de wijsheid uit boeken moest halen, dat ging net zo goed. Plus het voordeel dat je ook aan het denken gezet werd in plaats dat alles je kant en klaar word voorgeschoteld.

Vind het ook wel beangstigend hoezeer mensen vertrouwen op ChatGPT en het op zo'n korte tijd al heel gewoon is geworden, even ChatGPT vragen.
Als je enkel naar LLM's kijkt die voor het publiek beschikbaar zijn, dan begrijp ik jouw statement. Echter is dit niet waar de bulk voor gebruikt wordt.

Ik weet niet of je het gemerkt hebt, maar die protein-folding die exponentieel sneller afgewerkt is, en alle nieuwe materialen die gemaakt worden, die zijn allemaal met AI gedaan. Je hoort niets anders in de media dan nieuwe materialen om chips op te maken, batterijen mee te maken, medicatie of medische tests mee te maken. We horen over soorten van leukemie die genezen kunnen worden, over generieke bloedtests die eenvoudig en vroegtijdig kanker kunnen detecteren,... Gewoon al die eerste ontwikkeling was voor mij een oog-opener. anti-gif voor slangenbeten werd vroeger blijkbaar gemaakt door paarden bloot te stellen aan gif en die enziemen af te tappen. Negatief is dat het traag gaat, levende dieren vereist, negatieve reacties kan veroorzaken (dier naar mens) en een vervaldatum heeft. Nu hebben we een synthetische versie die jaren kan bijgehouden worden en meer soorten gif kan counteren.
Minder gekend hier, maar er is ook synthetisch bloed gemaakt. Ziet er wel roze uit, maar je kan het geven aan elke bloedgroep, moet niets gekoeld bewaard worden en wordt niet slecht.

Maar we klagen over een LLM? Als je de evoluties niet ziet, dan wil je niet kijken. Niet enkel dat, maar deze evoluties komen ook steeds sneller en sneller naar de markt. Vroeger moesten we 5 à 10 jaar wachten tot iets voor ons beschikbaar was en als het iets medisch was, dan kon dit nog langer zijn. Nu is het vaak al binnen het jaar. Ze noemen onze tijd niet voor niets de AI revolutie. We zijn opnieuw in een stroomversnelling qua evolutie die exponentieel is.

We hebben inderdaad een probleem met stroomvoorziening. En dat probleem wordt opgelost op 101 manieren. Chips met een ongeziene energie-efficientie, nieuwe soorten chips (bvb licht), chips met nieuwe materialen, trinaire chips, datacenters in de ruimte, efficienter gebruik van de overvloed van stroom die we hebben door betere batterijen, etc...

Jouw vergelijking met "ik vroeg aan ChatGPT om..." is een vergelijking als "mijn AA batterij was leeg na 1 uur, waarom zou een zonnepaneel werken? Laten we elektriciteit maar achterwege laten." AI is niet 1 ding; er is AI voor verschillende doelen en AI die op volledig verschillende manieren werken. Je kan het ene niet vergelijken met het andere.
Dat zijn allemaal ML toepassingen en niet perse LLM's toch? Een voorbeeld dat je niet noemde (maar wel echt 100% LLM is) is GPT-5.2 pro die een stukje bewijsvoering deed in de wiskunde.

Over chips, licht gaat meestal over de interconnects en niet het gebruik op de wafer. Net zoals je nu vaak meer FTTH ziet in plaats van koper.

Datacentra in space, hrm, weet het niet, een kennis vertelde eens over de problemen met koeling in de ruimte, maar, toegegeven dat was jaren geleden, mss is er een oplossing voor gevonden inmiddels? Links welkom.

Je optimisme is mooi en aanstekelijk (ben zelf groot voorstander van fibre in huis zelfs en je punt over dat compute meer mogelijk maakt mbt onderzoek is zeker waar), maar we moeten ook wel opletten, het is niet alsof de planeet alles zelf oplost. En er is een gevaar dat een kleine groep dadelijk alle 'AI' bezit en daarmee ongeziene hoeveelheden invloed en macht naar zichzelf kunnen toetrekken.
Ik reageerde op Jack zijn post waar hij sprak over "AI onzin", niet "LLM onzin".

De chips gaan o.a. gebruikt worden voor inference van GPT, maar voor de chip maakt het niet uit wat er op draait hoor. In het artikel zelf staat zelfs dat ze een SDK gaan uitbrengen voor softwaredevelopment én dat het superintelligence-team het gaat gebruiken voor het genereren van synthetische data.

Het is ook niet omdat deze chip (wellicht in Azure) gebruikt kan worden, dan MS dit plots zou bezitten. In elke sector zijn bedrijven die continu models aan het trainen zijn voor allerhande zaken te doen. MS levert gewoon de hardware om dit op te draaien. ML e.d. zal zeker niet tot 1 firma behoren. Dat er misschien 1 (tijdelijk) de beste is, dat kan natuurlijk wél... Al hangt het er dan van af wat "de beste" betekent voor jou.

En LLM's ook niet; Gemini, CoPilot, ChatGPT, Llama, Mistral, Claude, DeepSeek,... ik weet niet waar je vrees vandaan komt dat dit een kleine groep zou worden.

Mijn optimisme komt enkel van de zaken die ik nu zie en zou kunnen gebruiken. Door te zien dat er zaken uit "het labo" komen en effectief door ons gebruikt kunnen worden, geeft het me optimisme dat andere zaken die succesvol in "het labo" gerealiseerd worden, ook door zullen stromen tot bij ons.

Wist je dat nu reeds:
- insulinepompen tegenwoordig ML gebruiken om bloedsuikerspiegels te voorspellen?
- hartbewaking door ML gebeurt?
- ziekenhuizen jouw "vitale functies" ook voeden aan een AI om zaken vroeger op te merken, zelfs vroeger dan een verpleegster het kan zien - zoals Sepsis.
- medicijnen in maanden ontwikkeld worden ipv in jaren;
Denk bvb aan de super beroemde INS018_055. Medicijn tegen longfibrose - dodelijke ziekte waar weinig tot niets tegen te doen is. AI kwam, heeft een doelwit geidentificeerd én een middel ontwikkeld in 18 maanden. Deze "weinig aan te doen" situatie is helemaal anders en het medicijn zit nu in Fase 2 (wordt getest op mensen).
Of Abaucin; een antibioticum tegen de superbacteriën. (je weet wel de typische al-resistente ziekenhuisbacteriën waar geen enkel antibioticum meer tegen werkt). AI model getrained op paar duizend medicijnen en in anderhalf uur (!!) waren er al 8 potentiële middelen om deze dodelijke bacterie aan te pakken. Dit is nu in ontwikkeling voor klinische tests (aka bij mensen).
Of Moderna, We kregen covid, de genetische code van het virus kwam bekend en 2 dagen later had AI een mRNA vaccin gemaakt. Vaccins maken duurt jaren normaalgezien.
Of AlphaFold die nu gebruikt wordt om zwakke plekken bij kankersoorten te vinden. Bij leverkanker heeft deze AI een zwakke plek gevonden én een aanvalmethode bedacht in 30 dagen. Ze zijn nu bezig met de initiële fase van het ontwikkelen van het medicijn.


Maar buiten de geneeskunde (waar ik van vind dat dit de meest impactvolle bijdragen zal leveren - denk minder ziek, minder langdurig ziek, meer plek in ziekenhuizen, minder kosten, minder verzekering, minder leed, etc...) kan je ook denken aan simpele maar impactvolle ML. Precisielandbouw (cru gezegd: camera's op landbouwmachines schatten zelf in waar insecticiden moeten gespoten worden en enkel daar. De rest is 100% natuuurlijk en biologisch) of zelfs de slimme thermostaat of navigatie die files vermijd of die fancy vertaal-apps of de supermarkten die inkopen via ML die rekening houdt met weer, feestdagen, trends, etc... allemaal om winst te maken natuurlijk, maar dit betekent ook "minder vervallen voedsel weggooien".

Dit zin dingen van nu - as we speak. Niets toekomst of optimistisch of het er zal komen, maar tastbaar en bruikbaar. We zijn stap voor stap bezig om middelen tegen kanker te vinden; hét voorbeeld van wat onbereikbaar was.
Ik kan de toekomst niet voorspellen, maar als we bedenken wat bijv. de topman van openai heeft gedaan met het wegkopen van wafers om maar te zorgen dat anderen ze niet kunnen gebruiken, dan ben ik liever voorzichtig op dit onderwerp.

Je weet veel van medische toepassingen, Abaucin lijkt geweldig! Ik denk dat we het overigens eens zijn over compute + ML. Probeerde aan te geven dat dat soort ontwikkelingen geen LLM's waren. Behalve mijn GPT-5.2 voorbeeld. Maar ik begrijp nu dat je argument is dat ontwikkelingen in ML goed zijn voor onderzoek en dat zijn we dan eens met elkaar.

Over de ML toepassingen zoals je supermarkt voorbeeld, er zijn heel weinig van die voorspellingsmodellen die beter werken dan het al veel langer bestaande random forrest (1993), het is echter pas nu dat alle investeringen in het verzamelen van data een beetje meer liefde krijgen van management overal. Ik heb zelf al jaren geleden gewerkt met zulke modellen, het is echt niet iets van de laatste vier jaar in elk geval. Dat alle bedrijven in Nederland nu pas wakker worden is wellicht door de beroerde staat van ons onderwijs of gebrek aan liefde voor de meer technische aspecten van bedrijven en hun bedrijfsvoering. Maar goed, zoals jij al aangeeft met de voorbeelden, er is nu eindelijk beweging op dat vlak.
Een groot deel van de mensheid is nooit begonnen met nadenken. AI maakt daarin heb enkel verschil. Genoeg mensen die zich volledig aan TikTok en YouTube en Facebook etc algoritmes hebben overgeleverd. En daarvoor deden ze zich overleveren aan hype, secte leiders, lage educatie en wat al niet meer

AI belicht op zijn hoogst wat al lang bestaat.
Mensen zouden beter beginnen met het lezen wat de moderatiescores betekenen.
Duidelijk dat er hier een emotionele reactie is omdat mensen zich niet willen verdiepen in de materie.

Ik vergelijk AI vaak met elektriciteit.
Je hebt stroom van batterijen, zonnepanelen, door verbranding (stoom), etc...
Elektriciteit is niet goed of slecht, het is wat je er mee doet en hoe je ermee werkt.
Soms is het om dingen te doen bewegen via magnetisme, soms is het eerder chemisch (electrolyse), soms is het eerder mechanisch (resestieve verwarming),...
Soms wordt electriciteit gebruikt voor plezier (gaming, kerstboomlichtjes, vibrator,...), soms voor noodzaak (medische apparatuur), soms voor werk (servers, automatisering), soms voor regels en orde (verkeerslichten, toegangscontrole,...)
Maar maakt dit elektriciteit goed of slecht? Dat staat niet eens ter sprake.

Het is niet dat AI goed of slecht is, het is wat je ermee doet. Net zoals Elektriciteit.

Als er te veel elektriciteit verbruikt wordt, dan kijken we toch ook eerst naar "waar gaat de elektriciteit naar toe en kunnen we hier besparen of is het noodzakelijk?"
Bij AI is dit net hetzelfde. Eens dat er veel AI gebruikt wordt, maar hoeveel is door LLM's die door jan modaal gebruikt wordt, hoeveel is voor stomme tiktok fimpjes en hoeveel is door research, oid. Pas dan kan je zeggen dat AI gebruiken voor dat doeleinde niet slim is en hier iets aan doen. Maar zomaar roepen dat AI bullshit is, is gewoon heel kort door de bocht.
helaas is de helft van de moderatie ook met emotie kijk maar naar die van mij , als je de waarheid zegt wordt je met -1 weggemod.
Je hebt niet de waarheid gezegd.
Het is me vooralsnog niet gelukt een betrouwbare bron te vinden m.b.t. het energieverbruik. Hoewel ik de ontwikkeling van deze hardware interessant vindt m.b.t. rekenkracht voor deze specifieke toepassing, ben ik ook wel benieuwd hoe het energieverbruik zich verhoudt t.o.v. GPU's en vergelijkbare 'AI-chips'. Heeft iemand een gepaste link?
In het artikel staat, nu in ieder geval, 750W.
Mooie technologie voor zulke meuk.
Yay, nog meer AI bullshit..
In Azure OpenAI/Foundry is GPT5.2 ongeveer 3 keer trager (tokens/s) dan GPT5.1/GPT5 en daarom dat ik het in mijn API calls ook niet gebruik. Nu weten we dus waarom dit komt. Andere chips.
Batching waarschijnlijk. Dat hoeft niet negatief te zijn, er was laatst een onderzoek van iemand bij de UU hier daarover meen ik, dat was dacht ik met LLAMA modellen gedaan.

Om te kunnen reageren moet je ingelogd zijn