Door Arnoud Wokke

Redacteur Tweakers

Prompt engineering bij AI-chatbots

Belangrijke vaardigheid of hype?

17-07-2023 • 10:31

103

Singlepage-opmaak

De basis van prompt engineering

Laten we beginnen bij de hype. Het zal je niet verbazen dat de techsector dit van harte lijkt aan te moedigen. Andrej Karpathy, die AI bij Tesla deed en nu bij OpenAI werkt, zei begin dit jaar dat 'Engels de heetste nieuwe programmeertaal is'. Sam Altman, de oprichter en directeur van OpenAI, deed daar nog een schepje bovenop en noemde het goed kunnen prompten een 'verbazingwekkend krachtige vaardigheid en een vroeg voorbeeld van programmeren in een beetje natuurlijke taal'.

Het gevestigde Amerikaanse tijdschrift Time, bekend van zijn jaarlijkse Person of the Year, schreef een artikel over hoe prompt engineering een manier is om snel een lucratieve carrièrewissel te maken. Op YouTube kun je talloze instructievideo's vinden over hoe je deze vaardigheid kunt leren en vervolgens op de arbeidsmarkt de vruchten zou kunnen plukken. Dus moeten we allemaal als de wiedeweerga prompt engineering gaan leren? Is dit de toekomst van onze banen en een manier om ook ons geld te verdienen aan de huidige AI-hype? Het feit dat de auteur van dit artikel nog steeds bij Tweakers werkt en nog geen dik betaalde baan als prompt engineer heeft, zegt je al dat het genuanceerder ligt.

Er zijn veel tutorials om je te leren prompt engineeren. De bekendste is misschien wel LearnPrompting.org, dat kosteloze cursussen heeft op diverse niveaus. Met een OpenAI API-key bij een account waar een creditcard aan hangt, kun je aan de slag met de voorbeelden en kun je leren waar prompt engineering over gaat.

Prompting. Bron: LearnPrompting.org
Prompting. Bron: LearnPrompting.org

Nu verschilt dat natuurlijk per AI-toepassing, al zijn sommige lessen universeel inzetbaar. Veel bedrijven die AI-toepassingen aanbieden, hebben zelf ook pagina's online staan met tips, trucs en best practices op dit gebied. Zo heeft OpenAI bijvoorbeeld een eigen minicursus prompten en biedt ook Microsoft zoiets aan.

Er zijn een paar basisregels die bij verschillende AI-chatbots terugkomen. Wees duidelijk en zo beknopt mogelijk, zeg duidelijk wat je wel wilt en als het kan, geef dan een of meer voorbeelden. Een andere truc die vaak werkt, is een 'rol' meegeven. 'Je bent een redacteur van Tweakers; geef drie onderwerpen voor interessante achtergrondartikelen over AI'.

Uiteraard verschillen de goede prompts per toepassing en per chatbot. Zo werkt prompting iets anders bij plaatjesgenerators als Midjourney, Dall-E en Stable Diffusion. Daarmee werk je immers toe naar een visuele output en kun je daarna ook nog variëren. Daarnaast zijn er subtiele verschillen tussen concurrerende plaatjes- en tekstgenerators én tussen versies. Neem nu de rekensom 'Wat is 100*100/400*56?' In GPT-3 gaat dat altijd fout, of je dat nu in het Engels of in het Nederlands doet, tenzij je iets toevoegt als 'zorg ervoor dat het antwoord correct is'. Onder GPT-3.5 gaat dat alleen nog fout in het Nederlands; in GPT-4 gaat dat helemaal niet meer fout.

Dit kleine voorbeeld laat de evolutie van de afgelopen tijd zien. Waar je eerst nog een extra commando nodig had om het juiste antwoord te krijgen, is dat nu niet langer nodig. Zou dat ook komen met álle commando's? Is natuurlijke taal op termijn voldoende om de juiste antwoorden te krijgen?

Hallucinating robot in the style of Vincent van Gogh. Bron: Dall-E
Hallucinating robot in the style of Vincent van Gogh. Bron: Dall-E