AI-onderzoekers van Google belichten in een wetenschappelijke publicatie een nieuwe architectuur waarmee AI-modellen tijdens gebruik informatie blijven bijleren. Huidige AI-toepassingen zijn beperkt tot de informatie die is meegenomen in hun trainingsfase.
De Google-onderzoekers bouwen voort op eerder gepubliceerd werk, waarin zij een nieuwe architectuur, Titans, poneerden voor continu 'bijlerende' AI. Daardoor kunnen AI-toepassingen een langetermijngeheugen hebben én actuele ontwikkelingen meenemen. De door Google-wetenschappers ontwikkelde Titans-architectuur komt nu samen met een nieuw raamwerk, MIRAS. Deze combinatie biedt een mogelijk pad naar AI-modellen die up-to-date blijven met nieuwe informatie en actuele ontwikkelingen, schrijft The Decoder.
Dit omvat ook het realtime integreren in het kennisbestand van AI-modellen informatie die gebruikers aandragen in bijvoorbeeld chatgesprekken met een AI-toepassing. Tot op heden is het toevoegen van nieuwe informatie aan AI-modellen een kostbare zaak. Het opnieuw trainen van AI-modellen vereist veel rekenkracht en tijd.
De nieuwe aanpak van de Google-onderzoekers combineert bestaande AI-technieken, zoals recurrent neural networks en transformermodellen, om snelheid te combineren met nauwkeurigheid. In tests zou Titans niet alleen beter presteren dan traditionele AI-modellen op basis van de klassieke transformer-aanpak. Ook AI op basis van nieuwe hybride modellen zoals Mamba-2 zou worden voorbijgestreefd door de nieuwe Google-opzet.
/i/2006123616.webp?f=imagenormal)