Nieuws over Jailbreak uit 2025

Verfijn resultaten

Categorieën

AND

Toon resultaten 0

Onderwerpen

AND

Toon resultaten 0

Artikeltypes

Toon resultaten 0

Slechte grammatica zet AI-chatbots aan tot verboden antwoorden

27-08 - Onderzoekers hebben ontdekt dat veiligheidsmaatregelen voor AI-chatbots zijn te omzeilen door lange zinnen met slechte grammatica als prompt in te voeren. AI-chatbots kunnen dan output…

130