OpenAI gaat ruimte huren bij Amazon Web Services. Het bedrijf gaat zijn AI-modellen deels draaien op Nvidia-gpu's in AWS' EC2-clusters. Met de deal is 38 miljard dollar gemoeid, zeggen de bedrijven.
OpenAI zegt dat het voor 38 miljard dollar, omgerekend zo'n 33 miljard euro, investeert in het gebruik van gpu's in AWS-datacenters. AWS stelt daarvoor Elastic Compute Cloud UltraServers beschikbaar. Zulke UltraServers worden gebruikt om meerdere EC2-clusters aan elkaar te verbinden om latency en geheugenruimte te verminderen. AWS biedt zulke UltraServers voornamelijk aan voor het trainen van grote AI-modellen.
De clusters die OpenAI gaat gebruiken, bestaan niet uit Amazons eigen Trainium2-chips, maar uit Nvidia's GB200 en GB300. Met die eerste zegt Amazon maximaal 72 Blackwell-gpu's aan te kunnen sturen om maximaal 360 petaflops te kunnen genereren en maximaal 13,4TB aan HBM3e-geheugen te kunnen gebruiken.
Het is onbekend hoeveel van die clusters OpenAI gaat huren, maar het bedrijf zegt ChatGPT daar in ieder geval zowel op te willen hosten als nieuwe modellen te trainen. OpenAI heeft het zelf over 'honderdduizenden gpu's' en de mogelijkheid om 'op te schalen naar tientallen miljoenen cpu's'.
OpenAI en Amazon zeggen de deal in ieder geval voor het eind van 2026 rond te willen hebben. In 2027 kan dat dan zelfs nog uitgebreid worden, zeggen de bedrijven.