Anthropic geeft zijn AI-modellen Claude Opus 4 en 4.1 de mogelijkheid om gesprekken met gebruikers te beëindigen. Dat gebeurt volgens het bedrijf alleen bij 'aanhoudende gevallen van schadelijke interacties'.
Tot dusver kon Claude alleen een schadelijke prompt negeren en proberen om het gesprek een andere richting in te sturen, maar nu is het ook mogelijk dat de chatbot het hele gesprek beëindigt, laat Anthropic weten. Het bedrijf noemt deze mogelijkheid een 'last resort', die enkel wordt ingezet als gebruikers herhaaldelijk schadelijke verzoeken blijven indienen of misbruik maken van de bot. Het gaat daarbij onder meer om verzoeken die kunnen leiden tot terreurdaden. Daarnaast kunnen gebruikers zelf vragen of Claude de chat afsluit.
Gebruikers kunnen na een beëindigd gesprek een nieuw gesprek starten met de chatbot. Ook blijft het mogelijk om eerder gestuurde berichten in een beëindigde conversatie te bewerken, waarna Claude daar wel weer op reageert.