De AI-chatbot Claude van start-up Anthropic heeft een update ontvangen waarmee deze 100.000 'tokens' aan context in één gesprek kan verwerken, wat gelijkstaat aan ongeveer 75.000 woorden. De bot zou daarmee een heel boek in minder dan een minuut kunnen 'lezen', stelt de start-up.
Hiervoor had de bot een limiet van 9000 tokens. Ter vergelijking: het standaard-GPT-4-model van OpenAI heeft momenteel ook een contextlimiet van 9000 tokens, terwijl de grootste versie een limiet heeft van 32.000 tokens. Anthropic heeft de verhoging getest door de gehele tekst van The Great Gatsby als bijlage toe te voegen, met één aangepaste zin. Vervolgens werd gevraagd welke zin aangepast is. De bot vond de aanpassing binnen 22 seconden, stelt de start-up.
Volgens Anthropic kunnen bedrijven hiermee honderden pagina's aan materiaal laten analyseren door Claude. Volgens de start-up kan dit bijvoorbeeld gebruikt worden om tot ongeveer zes uur aan getranscribeerde audio te laten samenvatten, of om de voor- en nadelen van een bepaald stuk wetgeving in te schatten. Ook kunnen gesprekken hierdoor meerdere uren of zelfs dagen aan een stuk door gaan, voordat het contextlimiet wordt bereikt. De nieuwe versie van de chatbot is momenteel enkel beschikbaar voor de zakelijke partners van Anthropic via de api.
Eerder heeft Google-moederbedrijf Alphabet 300 miljoen dollar geïnvesteerd in de start-up, maar het is niet bekendgemaakt wat de reden achter die investering is. De start-up liet wel weten dat het wil samenwerken met Google Cloud voor het draaien van zijn kunstmatige-intelligentiesystemen.