'Amazons AI-tools haalden door fouten AWS twee keer offline'

Amazon Web Services is afgelopen jaar twee keer getroffen door een storing die werd veroorzaakt door Amazons eigen AI-tools. Dat zeggen anonieme bronnen tegen de Financial Times. Een van de tools besloot bijvoorbeeld een omgeving te verwijderen en opnieuw te bouwen. Amazon spreekt van menselijke fouten.

De Financial Times heeft het over twee storingen in het afgelopen jaar, maar bij de recentste storing in december zijn de meeste details bekend. AWS was toen in China dertien uur onbereikbaar. De bronnen zeggen dat de AI-tool aanraadde om de AWS-omgeving te verwijderen en opnieuw te bouwen. Hierna gebeurde dit.

Amazon ontkent niet dat het incident plaatsvond, maar spreekt van een 'user error'. AWS-ontwikkelaars moeten alle Kiro-acties goedkeuren, maar de ontwikkelaar had 'meer permissies dan verwacht', waardoor het volgens Amazon een 'gebruikerstoegangprobleem was, niet een probleem van autonome AI'. De bronnen zeggen dat normaal twee mensen moeten meekijken als er veranderingen doorgevoerd worden aan AWS, wat in dit geval om onduidelijke redenen niet gebeurde.

Kiro is een AI-agent die zelfstandig handelingen kan uitvoeren. Deze acties moeten dus nog wel goedgekeurd worden. De eerdere storing werd door de AI-chatbot Amazon Q Developer veroorzaakt. Hier zijn niet veel details over bekend. Volgens Amazon merkten klanten niets van deze storing.

De Amazon-werknemers die FT sprak zeggen dat het bedrijf wil dat 80 procent van Amazons ontwikkelaars minstens een keer per week AI gebruiken. 'Sommige' werknemers zijn vanwege de risico's op fouten sceptisch over het gebruik van deze AI-tools. Amazon zegt na het decemberincident verschillende maatregelen te hebben getroffen, zoals verplichte checks door meer dan één collega en werknemerstrainingen. De twee genoemde storingen zijn volgens de FT niet te vergelijken met de AWS-storing in oktober, waardoor verschillende diensten urenlang onbereikbaar waren.

Amazon stock (bron: NurPhoto/Getty Images)
Bron: NurPhoto/Getty Images

Door Hayte Hugo

Redacteur

20-02-2026 • 18:54

34

Submitter: steye

Lees meer

Reacties (34)

Sorteer op:

Weergave:

AI gaat echt wel de toekomst zijn, maar zoveel grote tech bedrijven zetten er zo hard op in en het is gewoon duidelijk dat de technologie nog niet ver genoeg is.
Met “nog” impliceer je dat dat binnen afzienbare tijd gaat gebeuren. Het lijkt er steeds meer op “of” het gaat gebeuren.
Zolang een LLM slechts tekst genereert en geen materiedeskundige is zie ik het niet gebeuren dan de foutmarge kleiner gaat worden.
Ze zetten er hard op in omdat ze "beloofd" is dat ze minder personeel nodig zullen hebben, never underestimate cooperate greed. Het lijkt er echter steeds meer op dat technologie niet veel verder gaat komen. ChatGPT blijft bij mij domme fouten maken.

Het is zoiets als beloven dat verbrandingsmotoren op fossiele brandstoffen voor 100% ooit uitstootvrij zullen zijn. Het is niet mogelijk omdat het inherent is aan de gebruikte techniek.

[Reactie gewijzigd door nullbyte op 23 februari 2026 11:55]

Ik heb mijn twijfels hierbij. AI gaat sowieso nog enorm veel beter worden. Deze techniek is nog maar piepjong, fouten horen erbij. Maar het probleem is vlg mij dat steeds meer engineers hiervan gebruik gaan maken, en dus steeds minder goed begrijpen waar ze akkoord op geven. De productiviteitsdruk zal namelijk per definitie hoog blijven. Als jouw conculega meer AI software regels goed weet te keuren dan jij, lig je eruit. Zie dan maar eens mensen op te leiden die precies weten hoe het zit.
Dat zal niet direct gebeuren. AI botst stilaan tegen diminishing returns. De huidige modellen verbeteren weliswaar, maar niet meer in dezelfde grote orde als het begin.
Waar je vroeger met dezelfde kosten een model 50 % kon verbeteren, zal dit nu minder dan 5 % zijn.
Als je dan nog rekening houdt dat er nog altijd niemand, exclusief met AI, winst maakt, dan zal het vroeg of laat wel eens keihard op een muur botsen.
Dit dus. Mensen hebben niet door dat iig qua trainen de modellen een generatie of twee geleden al praktisch tegen een muur op zijn geknald. Valt nog wel een boel winst te halen uit dingen als harnassing, maar ook daar zit een grens aan.

Iedereen die nu denkt dat AI de hele wereldeconomie op z'n kop gaat zetten was daar ook stellig van overtuigd met Microservices, Big Data, Machine Learning en nog 10 andere hypes. Deze Nostradamussen staan straks 0-10 qua voorspellingen :+

LLMs (of breder: transformers, want image diffusion modellen gebruiken het tegenwoordig ook) gaan zeker nuttig zijn en blijven. Maar dat hele verhaal over hoe 90% van devs, advocaten, accountants e.d. straks werkeloos zijn is lulkoek.
Andersom heb ik het idee dat men hier vooral aan wensdenken doet. Negatieve reacties op AI worden omhoog gemod, positief vooral omlaag. Begrijpelijk, want je komt aan mensen hun broodwinning en dat ligt gevoelig. Dat betekend allemaal niet dat het de waarheid is.

Dat gezegd hebbende heb ik het idee dat de gemiddelde tweaker hier uitsluitend een beetje copilot gebruikt en daaruit concludeert dat AI als ontwikkelaar nog een lange weg te gaan heeft. De realiteit is echter dat copilot enorm achterloopt op de concurrentie en bij verre het slechtste jongetje van de klas is. Ik heb nu al een aantal mensen achter Claude gezet en die zijn zich rot geschrokken van het verschil tussen de twee. En zijn nu groot fan.
Ik kan dat beamen. Op Tweakers lees ik in de reactie vooral negatief sentiment over AI. Veel reacties gaan over "AI slop", de gevaren, de copyrightschendingen, mensen die straks niet meer zelf kunnen nadenken, iedereen die zijn baan gaat verliezen door AI (die er niets van kan waarna ze weer mensen moeten aannemen), etc.

Maar ik zie hoe het bij ons in de realiteit gaat, waar we oog hebben voor wat AI wel en niet kan, en gebruiken AI als gereedschap, niet als doel.

We hebben saaie en dus foutgevoelige processen geautomatiseerd met AI, waar collega's erg blij mee zijn. Mensen kunnen dan doen waar mensen goed in zijn, zoals creatieve, persoonlijke of informele processen waarin niet alles in concrete context of instructies is te definiëren.

In ons software development team gebruiken wij AI om te helpen bij programmeren, en dat gaat gepaard met een productiviteitsverhoging omdat we sneller de code base snappen, we sneller patronen kunnen herhalen, en sneller tests kunnen genereren. We moeten óók nog steeds zelf nadenken en controleren of AI zijn werk goed heeft gedaan, maar dat is minder werk dan om alles van A-Z zelf te doen. We hebben ook maatregelen genomen om kwaliteit te waarborgen, ironisch gezien voor een deel ook met AI.
Die negatieve berichten zijn vooral een reactie op de enorme hype in de media, en het soms blinde geloof van mede-tweakers dat alle banen van juristen, journalisten, financieel experts, programmeurs en creatieve beroepen over 5 jaar zijn verdwenen.


De keerzijde wordt zelden belicht: dat het model geen “waarheid” kent, dat het niet neutraler is dan een rechter (nog afgezien van dat een computer wel logisch, maar niet redelijk is), enzovoorts. Bij gebruik binnen de overheid komt daar nog eens overheen dat het moeilijk is om transparant te zijn over wat er gebeurt, het systeem is vaak een black box. En wie weet wat voor bias de trainingsdata heeft? Hoe voldoe je dan aan de wet?

En dan vergeet men nog dat de honderden miljarden die momenteel worden geïnvesteerd, ook eens terugverdiend moeten worden.


Kortom: tegenover de hype mag wel eens wat tegenwicht staan. Het is geen magie, en kent beperkingen die gewoon inherent zijn aan het model. Als je geen ongelukken wilt maken, moet je echt wel weten wat je doet - kijk maar naar de storingen door AI waar Amazon zelf mee te maken had, of de berichten hier over AI die zelf jurisprudentie verzint.


Ondertussen ben ik me er echt wel van bewust dat deze techniek veel brengt, het is machtig gereedschap en sinds “de cloud” de grootste verandering. Maar wat nu de meeste banen kost is als je beter kijkt simpelweg geldhonger van aandeelhouders. Dan klinkt AI voor publieke acceptatie toch een stuk beter.


P.S.: Ik hoorde in de jaren ‘80 ook al overal om me heen dat de computer binnenkort al het werk zou overnemen. Er waren zelfs discussiepanels over wat we met al die vrije tijd moesten gaan doen! Viel achteraf wel mee - ik heb er een goede boterham mee verdiend, en zelfs nog mogen knutselen aan LLM’s.
Nee daar ben ik het mee eens, echter door AI krijg je wel dat het grinding werk, waar je ontzettend veel van leert er straks niet meer is. De experts van nu weten (hypotetisch) waar en hoe het vandaan komt. Straks doet AI dat en kan een expert niet meer zelf analytisch denken
Ach, alles heeft een evolutie. Zeker de financiele wereld die doorgaans nogal conservatief is. ChatGPT heeft een grote invloed gehad, net zoals de smartphone jaren eerder en nog veel jaren eerder de computer.

Het beroep kaarsenaansteker voor de straatverlichting bestaat niet meer, maar het is ook niet zo dat van vandaag op morgen alle straatverlichting is vervangen geweest door de electrische.

Verder is "AI" ook maar een verzamelwoord. Je hebt "AI" zoals in ChatGPT die lappen tekst samenvat en jou een gepast antwoord geeft. Je hebt ook "AI" in robotica waarbij de AI getrained is op iets heel specifiek en dat dus daarom met hoge precizie kan uitvoeren.

Wat dat betreft zijn er wat gelijkenissen met mensen. De meeste mensen zijn "goed genoeg" (LLM) en dan heb je bv de topsporters die 1 iets zeer goed kunnen (Robot)
Dat er een shake-out aan zit te komen, dat is idd wel duidelijk. Maar het wordt nu al heel veel gebruikt, juist in het bedrijfsleven. En die willen wel betalen. Het is niet alleen de techniek, het is ook dat bedrijven moeten ontdekken hoe ze dit productief in kunnen zetten. Die fase is nu volop aan te gang.

Ondertussen komen er reclames tussen AI. Dat gaat ook een hoop geld opleveren. Maar de (mijn) vraag was of AI op termijn fouten in software gaat voorkomen of juist creëren. Wellicht allebei.
Een LLM is een tekstgenerator. Deze zet woorden achter elkaar die statistisch gezien het meest voor de hand liggen. De dingen die mensen goed hebben gedaan zitten in de trainingsdata, ook dingen die mensen fout hebben gedaan zit in die trainingset. Een LLM genereert aan de hand daarvan tekst en heeft verder geen inhoudelijk kennis van het onderwerp. Als de output voor jou goed genoeg is en je het zonder te controleren in de live omgeving laat deployen dan dat jouw keuze. Mijn keuze zou het niet zijn. Wat een mens toevoegt is het feit dat deze materiedeskundige is, uiteraard mits de juiste persoon op de juiste plaats zit. Functioneel goede software is absoluut niet gegarandeerd wanneer je LLM's deze laat genereren. Ik verwacht niet dat de foutmarge veel kleiner gaat worden aangezien een LLM deze materiedeskundigheid niet heeft.
Mensen zijn materie deskundigen doordat zij vanaf 4 jaar oud tot en met 25 jaar oud worden opgeleid in een school. Daarna wordt men nog 10 jaar nog verder opgeleid door ervaring op te doen tijdens het werk.

zou een LLM uiteindelijk ook een materie deskundige kunnen worden?
Nee want het is een statistisch model en kan niet redeneren.
Ik denk juist dat AI daar in kan uitblinken. Als ze specifiek worden getraind met vakliteratuur dan kan juist daar heel veel meerwaarde zitten.
Je vergeet dat LLM’s statistische modellen zijn. Als je er vakliteratuur in stopt, krijg je iets dat klinkt als vakliteratuur terug. Maar het model snapt de “betekenis” erachter niet.


Een enorme versimpeling als voorbeeld. Het meest eenvoudige taalmodel is een Markov-keten die op basis van elke letter kan voorspellen wat de volgende wordt. Tijdens de studie heb ik ooit alle verzamelde werk van Shakespeare gebruikt om het te trainen. Als je op basis van die trainingsdata een boek laat genereren dat 10 karakters vooruit kan “denken” klinkt het 100% áls Shakespeare. Maar er zijn zinnen zonder werkwoord en het betekent niks.


Inmiddels zijn de ontwikkelingen een factor 1000 verder, is de hoeveelheid trainingsdata onvoorstelbaar en zijn er ook wat paraplu’s bedacht om “te redeneren”, maar het idee blijft hetzelfde: nauwkeurige voorspellingen van de taal. Wat ontbreekt is inzicht, intuïtie, passie, redelijkheid - alles wat ons mens maakt. En qua logisch oplossend vermogen zijn de beste modellen nog een kleuter.
Een LLM blijft altijd fouten maken ondanks de gebruikte trainingsdata. Het zelfde geldt voor mensen, ze zullen altijd fouten blijven maken. LLM's zullen altijd blijven hallucineren
Met het grote verschil dat een mens (doorgaans) in staat is om van fouten te leren. Een LLM kent het concept 'fout' niet omdat het niet in staat is te redeneren, hoeveel energie je er ook tegenaan gooit.
Het is een black box, het fouten maken (hallucineren) is evenveel deel van het mechaniek als stoom is in een stoommachine. Je kan er pleisters op blijven plakken, het blijft een LLM.

[Reactie gewijzigd door nullbyte op 23 februari 2026 12:00]

Typisch Amerikaans:

De Amazon-werknemers die FT sprak zeggen dat het bedrijf wil dat 80 procent van Amazons ontwikkelaars minstens een keer per week AI gebruiken.

Van een middel een doel maken en afdwingen…
Mijns inzien falend leiderschap. Je moet mensen faciliteren, niet dwingen.

Wij hebben bij alle medewerkers een betaalde licentie van een LLM uitgerold. En daarbij training gegeven over waar je het nuttig kunt gebruiken, maar ook waar het niet geschikt voor is en wat de risico's zijn.

Nu zie je dat sommige het heel veel gebruiken maar anderen juist helemaal niet. Je kan daar nog een beetje in bijsturen, maar als je bepaalde mensen er uiteindelijk niet in mee krijgt moet je ze niet gaan dwingen. Het gaat uiteindelijk om hoeveel kwalitatief werk ze leveren en het is dan aan hun om te bepalen of ze AI gebruiken of niet.
Mijns inzien falend leiderschap. Je moet mensen faciliteren, niet dwingen.
In het algemeen heb je zeker gelijk, maar in het geval van Amazon kan ik me er wel wat bij voorstellen. Zij ontwikkelen zelf AI en de bijbehorende tools. Zeker bij AI moeten er nog een hoop kinderziektes overwonnen worden. Je kunt dan maar beter er vol in gaan en eventueel op je plaat gaan, zodat je ervan kan leren en het product kunt verbeteren.
Om het 'not invented here' syndroom te doorbreken kan dat een prima methode zijn.
Mijn ervaring is het dat als iets wellicht geen draagvlak heeft of gewoon niet per se beter is, je de werknemer er alleen maar mee in het harnas jaagt. Dan krijg je de instelling: “ prima als jij het zo wil en niet luistert, dan doe ik precies wat je wil en het kan me geen zak schelen wat er dan uit komt”.
Dat heeft zelfs een naam: malicious compliance
Toch apart om te zien dat die medewerkers haar eigen graf graven door verplicht Ai te gebruiken. Eenmaal ingeleerd en de helft staat op straat
Als je niet meewerkt sta je met 100% zekerheid nu al op straat.
Als je wel meewerkt heb je 50% kans dat je over een aantal jaren pas op straat staat.
Op voorwaarde dat het echt gaat werken. Mislukt het dan heb je mogelijk een prima baan om de puinhopen op te ruimen.
De enige logische keuze is meewerken
Puinruimen is in deze casus denk ik wel van toepassing. Een live omgeving weggooien en opnieuw opbouwen is echt vragen om problemen. Gelukkig hadden ze nog echte mensen aan de knoppen die de schade nog enigszins konden beperken. Hopelijk hebben ze toen wat snapshots kunnen restoren zodat systemen weer binnen een enigszins redelijke tijd weer online waren.
Amazon spreekt van menselijke fouten.
Een AI de controle geven is inderdaad een menselijke fout.
De actie moet nog wel worden goedgekeurd, maar als je niet de persoon trained zodat hij weet wat hij goedkeurd dan gaat het alsnog fout.
Een advies dat een omgeving opnieuw opgebouwd moet worden, nouja daar gaat bij mij wel alarmlichten af.
Garbage in garbage out is het nog steeds met heel veel ai modellen, het word steeds beter tuurlijk. Er komt een tijd dat heel veel geautomatiseerd door ai agents uitgevoerd zal worden, maar nog steeds zijn ze niet zo ver en de hype om de beste ai te hebben is wel heel hoog momenteel. Als je ziet hoe er geld rond gepompt word en verlies wordt gedraaid zou je over een tijd toch verwachten dat enkele spelers om gaan vallen. Het is niet zo dat het waardeloze bedrijven zijn als met de grote .com bubble dit toen barste maar ook dit is enorm gehyped naar mijn bescheiden mening.
Als er straks steeds meer AI gebruikt gaat worden door media, en andere beroepen die veel gegevens/informatie gebruiken, zijn we steeds meer tijd kwijt aan het controleren van de AI output, of het allemaal wel klopt wat er is opgehoest.

Om te kunnen reageren moet je ingelogd zijn