Voor doemdenkers die 's nachts wakker kunnen liggen van alle risico's die AI met zich meebrengt en bang zijn voor Judgment Day meets HAL9000 meets Matrix, is OpenAI's nieuwe functie misschien geschikt. Het bedrijf zoekt een 'Head of Preparedness', die onder andere de gevaren van nieuwe modellen in kaart moet brengen.
OpenAI schrijft in een vacature dat het zoekt naar een 'Head of Preparedness', iets dat overigens geen nieuwe term is. De maker van ChatGPT werkt al langer aan 'preparedness' als vakgebied, onder andere met een zelfopgezet framework dat de risico's van AI op alle mogelijke vlakken in kaart moet brengen. Het nieuwe afdelingshoofd moet zorgen dat die risico's in kaart worden gebracht, maar ook dat programmeurs deze volgen en dat de juridische afdeling daar weet van heeft.
Bij Sam Altman is het nooit echt duidelijk of zo'n functie serieus bedoeld is of dat het vooral marketing richting AGI is, maar op X noemt de OpenAI-oprichter verschillende risico's waar het Head of Preparedness zich mee bezig moet houden. Altman noemt onder andere modellen die belangrijke kwetsbaarheden in software kunnen vinden. "We komen in een wereld terecht waar we een genuanceerder begrip moeten krijgen van hoe nieuwe mogelijkheden kunnen worden misbruikt", zegt hij. "Die vragen zijn ingewikkeld en er is weinig precedent voor."
Altman noemt zelf alleen cybersecurity als mogelijk risicogebied, maar er zijn er natuurlijk meer te bedenken. Recent zijn er veel gevallen opgedoken waarbij met name jonge mensen overleden door zelfdoding nadat ze daarover veelvuldig spraken met chatbots. Tweakers schreef eerder dit jaar al hoe AI-modellen structureel falen bij het praten over zelfdoding.
Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.
:strip_exif()/i/2006502196.jpeg?f=imagenormal)