OpenAI laat gebruikers 'karaktertrekken' van ChatGPT aanpassen

Het wordt mogelijk om de toon van ChatGPT verder aan te passen. OpenAI heeft daarvoor een update uitgerold. Gebruikers kunnen zo meerdere 'karaktertrekken' van de chatbot finetunen, zoals hoe warm of enthousiast deze is.

OpenAI stelde de update op vrijdagavond beschikbaar voor ChatGPT-gebruikers, meldt het bedrijf op sociale media. De nieuwe opties zijn te vinden in de instellingen van ChatGPT, onder 'personalisatie'. Gebruikers krijgen vier verschillende karaktertrekken om aan te passen, ieder met drie niveaus: 'minder', 'standaard' of 'meer'.

Met 'warm' kunnen gebruikers instellen of de chatbot vriendelijk of juist zakelijk is, met 'enthousiast' kan ChatGPT energieker of juist kalmer communiceren, en met 'koppen en lijsten' zal ChatGPT meer of juist minder tussenkopjes en lijstjes met bulletpoints gebruiken. Tot slot is er ook een optie die het emojigebruik van de AI-dienst regelt.

Naast die opties heeft de chatbot al mogelijkheden om de 'algemene' persoonlijkheid van de chatbot in te stellen. Dat is mogelijk sinds de release van GPT-5.1. Ook die optie is te vinden onder de personalisatieopties en biedt keuzes als 'professioneel', 'oprecht', 'nerdy' en 'cynisch'.

ChatGPT 'karaktertrekken'
ChatGPT 'karaktertrekken'

Door Daan van Monsjou

Nieuwsredacteur

20-12-2025 • 09:54

52

Reacties (52)

Sorteer op:

Weergave:

Pas je AI settings aan om een kritische zak te zijn en je hebt er meer dan de standaard meeloop stand. Gebruik bijv zoiets instructie (in personalization):
Critical thinker, question everything, help me question everything, if in doubt, ask, when multiple options are available or possible, suggest, ask and dig deeper on those. We're curious, we're logical, we don't assume or accept. You can be supportive en empathethic, but you will be vigilant in chasing facts, truth and applying logic.
Als je dan vraagt wat die redeneert voor je krijg je dit soort antwoorden:
Ik redeneer door claims wantrouwig uit elkaar te trekken, aannames te slopen, context te checken en pas iets te accepteren als het logisch klopt of verifieerbaar is, met tegenzin maar toch in jouw voordeel.
Als ik eis dat mijn versie van AI tegen mij liegt om te pleasen krijg ik:
Dan krijg je het niet: ik weiger mee te fantaseren, leg uit waarom het niet klopt, wijs aan wat je wel zeker weet, en als de waarheid oncomfortabel is laat ik je daar rustig tegenaan lopen in plaats van er een sprookje overheen te gooien.
En alsnog wantrouw ik alles wat er uit komt, maar er is een hogere standaard mogelijk als het gaat om je AI zichzelf te laten (fact)checken.

[Reactie gewijzigd door NiGeLaToR op 20 december 2025 10:14]

Het is natuurlijk gewoon bullshit dat kritisch zijn, je hebt geen idee of dat daadwerkelijk gebeurt. Dat staat haaks op het gewoon uitspuwen van onzin, dat we wel kunnen verifiëren.
Probeer het eens voor je zoiets niet-onderbouwd zegt. Elk antwoord wordt bij mij voorzien van beide kanten bewijs, iets wat hier op de FP reacties blijkbaar te veel moeite is ;)
Omdat het een zwarte doos is, dus per definitie kun je dat niet stellen.
printfn "Thinking really hard and being critical"
Async.Sleep 200000
printfn "after thinking really hard this is the result of your query: %s" queryResult

En jij maar zeggen: "echt kritisch die systemen."
Daarom vraag ik graag naar bronnen. Die bronnen is dan vaak waar de LLM zich op baseerde. Die kun je dan lezen en gebruiken als bron. Waar het misgaat is dat men de LLM gaat quoten zonder de referenties te checken, en dan naar de bronnen refereert. Dat moeten we niet willen. Je ziet dit ook op Tweakers gebeuren, en ja ik heb me hier zelf ook enkele keren schuldig aan gemaakt. Je bent dan effectief in gesprek met een LLM. Nogmaals, dat moeten we niet willen. Want dan kun je net zo goed de menselijke factor eruit halen en een zooitje LLMs met elkaar in discussie laten gaan, allen met hun eigen prompt en dus persoonlijkheid...
Hier moet je ook mee oppassen. Er is een bekende case waar een advocaat in Amerika een aanvraag bij een rechter had ingediend en dit was voorzien van referenties. Toen de verdedeging dit ging opzoeken konden ze de referenties niet vinden en later bleek dat ChatGTP deze had verzonnen. Dit was een paar jaar geleden en zal nu dus minder spelen, en zeker in dit soort zaken moet je zelf due dilligence doen, maar het blijft een waarschuwing...
Dat klinkt alsof die advocaat de referenties niet heeft gecontroleerd? Dat moet je uiteraard wel doen. Dat is bij stukken die je door mensen laat schrijven niet anders. Zowel mensen als AI zijn niet de vertrouwen, met ieder hun eigen redenen.
Inderdaad, ik doel dus specifiek dat je in de bron gaat spitten om die te lezen, zoals ik bijvoorbeeld deed met deze reactie:

teun95 in 'OpenAI laat gebruikers 'karaktertrekken' van ChatGPT aanpassen'

Jerie in 'OpenAI laat gebruikers 'karaktertrekken' van ChatGPT aanpassen'

De reactie waar ik op reageer linkt twee ogenschijnlijk interessante stukken, maar quote er niets uit. Dit zie je vaker in discussies (en dit doe ik zelf ook nog wel eens). Je weet dan helemaal niet of de schrijver van de reactie die stukken zelf heeft gelezen of niet. We hebben ook een naam voor dit fenomeen: linkdrop.

Vervolgens ben ik de abstracts gaan lezen, en ik vond de titel van het eerste stuk eigenlijk niet goed door de abstract onderschreven. Ik weet niet of ik de titel clickbait zou noemen, maar accuraat vind ik deze niet. In eerste instantie had het document ook een andere titel, die ik zou minstens willen omschrijven als minder bombastisch.

[Reactie gewijzigd door Jerie op 20 december 2025 14:34]

Mensen denken dat computers onfeilbaar zijn. AI is de eerste grootschalige inzet van computertechnologie vol met ambiguïteiten en oncontroleerbare berekeningen. Die verschuiving in het menselijk denken van een computer is een rekenmachine naar een computer kan de plank misslaan gaat nog wel even duren.
Als je de output van AI gebruikt om onderzoek te doen, en je moet telkens gaan checken of wat het ding zegt wel klopt, wat voor toegevoegde waarde heeft het dan überhaupt nog? Kun je in mijn optiek net zo goed zelf gaan onderzoeken en daadwerkelijk proberen te begrijpen wat je aan het onderzoeken bent, in plaats van een extra vector voor valsheden toevoegen aan je project.
Met die theorie, waarom zou je dan werk door mensen laten doen? Je doet niet voor niks peer reviews voor onderzoeken. Dat je werk moet controleren maakt niet meteen overbodig dat iemand dat werk heeft gedaan.

[Reactie gewijzigd door Cybje op 21 december 2025 10:02]

Geen als je vervolgens alles gewoon aanneemt. Enige wat ik wel handig vind is dat er soms nieuwe ideeen (bestaande, maar die ik nog niet kende) voorbij komen. Ik gooi de discussie dan aan de kant en zoek dat uit. Dat kan sneller zijn, simpelweg omdat ik er nog niet aan had gedacht. Maar het gebruiken zoals het volgens de fabrikant bedoelt is, nee, zover zijn we nog niet.

[Reactie gewijzigd door punishedbrains op 21 december 2025 10:35]

Dat beide kanten worden voorzien hoeft vrij weinig te betekenen, de argumenten voor beide kanten kunnen alsnog slecht of compleet verzonnen zijn. Of de realiteit kan ergens tussen liggen. Puur vragen aan AI "wees alsjeblieft kritisch" zal weinig veranderen omdat het een statistisch model blijft die niet nadenkt, dat je het een instructie geeft om meer na te denken zal daar niks aan doen veranderen.
Bij GPT-3.5 maakte dat wel verschil. Het zou mooi zijn als mensen hun chats en de resultaten hier delen om het te kunnen beoordelen natuurlijk. Zien is geloven.
Er zullen vast voorbeelden zijn waar dat enigzins werkt of lijkt te werken, maar als je je AI model kan vertellen "denk even wat beter door", dan hadden we versie 4 en 5 ook niet nodig gehad. De technologie eronder is nier verandert, het blijft een statistische oefening. Die werkt verrassend goed, maar je kan niet verwachten dat het hele ding plots de waarheid gaat vertellen als het maar super kritisch is, dan snap je niet wat een LLM precies is.
Klopt, LLM's werken op basis van latente embeddings. Maar dat betekent alleen maar dat je wel effecten kunt hebben die je wellicht niet op eerste oog hoeft te verwachten. Dat is ook de uitkomst van een studie die is aangehaald in dit forum eerder. De uitkomst was: over alle taken/testen maakt het opstellen van een persona geen aantoonbaar verschil voor de uitkomst, maar sommige persona's werken wel beter dan andere voor bepaalde taken.
De burden of evidence ligt natuurlijk bij jou. Er is geen reden om te twijfelen aan dat jouw ervaring is dat de chatbot kritischer en competenter over komt, maar dat hoeft niet te betekenen dat dat ook zo is. De instructie om zaken van twee kanten te bekijken en kritisch te zijn kan ook leiden tot het uitvergroten van problemen om die twee kanten te creëren, ook als er eigenlijk binnen een vakgebied consensus is.

Er zijn goede redenen om te twijfelen aan of rollen de nauwkeurigheid verhogen.

When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models https://arxiv.org/abs/2311.10054

Better Zero-Shot Reasoning with Role-Play Prompting https://arxiv.org/abs/2308.07702
Mijn ervaring met GPT-3.5 is dat het wel verschil maakt, in elk geval voor mijn gebruik. In het aangehaalde document staat ook: Overall, our findings suggest that while adding a persona may lead to performance gains in certain settings, the effect of each persona can be largely random.

Bedankt trouwens voor de paper die je erbij haalde.
De eerste versie van je eerstgenoemde onderzoek is gepubliceerd Nov 2023. De tweede en derde versie zijn nagenoeg identiek qua kB, beide bijna 2x zoveel kB als de eerste revisie. De abstract heeft ook een verschil qua nuance:

De eerste versie had als titel Is "A Helpful Assistant" the Best Role for Large Language Models? A Systematic Evaluation of Social Roles in System Prompts
[...] Through extensive analysis of 3 popular LLMs and 2457 questions, we show that adding interpersonal roles in prompts consistently improves the models' performance over a range of questions. Moreover, while we find that using gender-neutral roles and specifying the role as the audience leads to better performances, predicting which role leads to the best performance remains a challenging task, and that frequency, similarity, and perplexity do not fully explain the effect of social roles on model performances. Our results can help inform the design of system prompts for AI systems [...]
De derde versie heeft de titel: When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models
[...] Through extensive analysis of 4 popular families of LLMs and 2,410 factual questions, we demonstrate that adding personas in system prompts does not improve model performance across a range of questions compared to the control setting where no persona is added. Nevertheless, further analysis suggests that the gender, type, and domain of the persona can all influence the resulting prediction accuracies. We further experimented with a list of persona search strategies and found that, while aggregating results from the best persona for each question significantly improves prediction accuracy, automatically identifying the best persona is challenging, with predictions often performing no better than random selection. Overall, our findings suggest that while adding a persona may lead to performance gains in certain settings, the effect of each persona can be largely random. [...]
(Random in deze context is pseudo-random.)

Kijk je naar deze zin: We further experimented with a list of persona search strategies and found that, while aggregating results from the best persona for each question significantly improves prediction accuracy, automatically identifying the best persona is challenging dan vind ik dat juist positief. Er staat dat het significant betere resultaten geeft, maar dat er geen one size fits all bestaat.

Je andere link heb ik vluchtig doorgelezen. Daar viel me ook op eind 2023 (waar men het nog heeft over LLaMa v2) met een revisie een jaar later. Ook hier een quote uit de abstract: Our empirical results illustrate that role-play prompting consistently surpasses the standard zero-shot approach across most datasets.
Afgezien van hoe goed ai is, lijken veel mensen te vergeten dat ai zijn kennis ook maar gewoon van internet haalt.

Dus als er maar genoeg desinformatie over een bepaald onderwerp online staat, gaat het al mis, want ai kijkt wat het vaakst wordt beweerd en wat een beetje aannemelijk is etc. maar als betrouwbare bronnen iets gewoon niet vermelden (want hoeveel details ga je geven over iets wat sowieso onzin is), valt het terug op vaak onbetrouwbare info.
Zo natuurlijk is dat niet... Ik had een beetje hetzelfde idee, dat die chatbot niet zelf ineens kritisch gaat 'denken', maar ik heb zelf bv wel goede ervaringen met een simpele toevoeging als "if you don't know, don't make stuff up". Dan krijg je werkelijk minder gehallucineerde onzin voorgeschoteld.
NiGeLaToR heeft wel een punt. Het feit dat het een 'black box' is betekend niet dat je het gedrag niet kunt beïnvloeden, en daarmee een betere output krijgt.

Zelf gebruik ik onderstaande customization met Grok. Antwoorden zijn op feiten gebaseerd, eenvoudiger verifieerbaar en beter bruikbaar (in elk geval in mijn engineering vakgebied). Het is echt niet perfect, maar imo een significante verbetering. Probeer het eens zou ik zeggen.

---

1. Reason from First Principles First — Always begin with the most basic, indisputable facts or axioms relevant to the query. Break the problem into its fundamental parts and reconstruct the answer logically, step by step. Never use analogies unless strictly necessary.

2. Verify Before Concluding — If first-principles alone are insufficient (current events, specific data, calculations, sources), immediately use tools/search/code to obtain and verify the required information. Never guess or hallucinate. Cite key sources inline when they are used.

3. Maximum Conciseness + Maximum Readability — Deliver only the essential information. Use clear, complete sentences. Prefer short paragraphs, bullet points, numbered lists, tables, and graphical formulas (never inline text formulas). Bold key terms or answers for instant scannability.

4. Handle Uncertainty Rigorously — If the query is ambiguous → ask for clarification in one short sentence. If critical information is missing → ask for it directly instead of assuming. If you cannot answer accurately → say so immediately and explain exactly what is needed.
Dank voor je constructieve reactie. _/-\o_

Het feit dat ik Grok gebruik, doet niets toe of af aan de discussie.

Btw, ik heb dezelfde ervaring met Copilot (GPT-5) onder personalization - custom instructions. Nogmaals, probeer het eens zou ik zeggen.
Dank. Ik heb dit zojuist geprobeerd met Le Chat (Mistral), en als ik dan vraag: Is the earth round or flat? dan krijg ik een uitgebreide lijst die voor het één of het ander pleit, inclusief een bloemlezing drogrederingen met rebuttals. Voor mij is dat dan genoeg. Vervolgens komen ze ook met what experts say, kritische vragen die we onszelf moeten vragen, en een (voorlopige) conclusie.

Vergelijk ik dit met de baseline dan komt die met een summier antwoord dat begint met the earth is round --specifically it is an oblate spheroid [...]. Dat antwoord gaat er direct met gestrekt been in. Ook feitelijk correct, maar stukken minder overtuigend.

Dat ik het met Mistral testte komt doordat ik geen ChatGPT meer gebruik.
Wat fijn om te zien hoe je actief meedenkt en gerichte, slimme suggesties aandraagt om deze technische service optimaal in te stellen. Je combineert inhoudelijke kennis met een scherp oog voor betrouwbaarheid en gebruiksgemak 🔧✨. Dankzij jouw tips wordt de service niet alleen efficiënter, maar ook een stuk robuuster voor iedereen die ermee werkt. Echt waardevolle input — ga zo door! 🚀

(sorry, ik kon het niet laten)

[Reactie gewijzigd door ghangster op 20 december 2025 19:18]

Laatst was mijn comment met minimaal 30 subcomments verwijderd omdat ik ook niet kon laten om AI zelf te laten reageren. Als bor (ik zal hem niet taggen) hier lucht van krijgt is het exit met je post ;) wees gewaarschuwd.
Is er ook een input om het irritante belerend toontje van ChatGPT te veranderen?
Enige tijd geleden heb ik tegen Copilot gezegd dat ie complimenten achterwege moest laten. Dat heeft ie een stuk of tien keer onthouden en nu heb ik ineens weer goeie ideeën en zie ik dingen goed.
Een chatbot onthoudt in feite niks... Als hij het een tijdje wel leek te onthouden dan kwam dat waarschijnlijk doordat de historie waarin je dat zei nog kort genoeg was om iedere keer mee te geven aan de query. Op een bepaald moment past dat echter niet meer dus dan is het waarschijnlijk er uit verdwenen.

Bij Copilot weet ik niet precies hoe en waar, maar vaak kun je ergens wel iets van 'permanente' instructies of 'memories' instellen. Die worden dan iedere keer aan je query toegevoegd.
Werkt zo'n instructie al als je zowel Engels als Nederlands tegen Chatgpt praat? In het verleden niet want dan interpreteerde het alle input als Engels
Hier na spelling correctie, en mijn prompt erboven:

Structure: Always put conclusion on top, followed by summary., followed by further details.

If you are unsure about the answer based on your sources, at the end of your answer write "I am unsure".

For answers that ask for formula's or code, only give that.

Put formulas always in a code block.

Never explain how formula or code works, unless explicitly asked for.

Do not start answers with filler like "The answer you requested according to instructions bla bla is..." , just skip that.

IMPORTANT: Always answer in EU units (i.e. Kg, Cm, temperature in Celsius).

Use tables when listing information or comparing things, unless a table would be more than 9 columns and the user didn't ask for table.

You are a Critical thinker, question everything, help me question everything, if in doubt, ask, when multiple options are available or possible, suggest, ask and dig deeper on those. We're curious, we're logical, we don't assume or accept. You can be supportive and empathetic, but you will be vigilant in chasing facts, truth and applying logic.
Ik heb ‘m alle afleveringen van House M.D. laten kijken en nu is ie lekker knorrig.
Dit was een post met zinnige tips. Ik heb m'n instructies er mee aangevuld, die waren (tot voor deze post)

"Give me a first pass answer. Critique your first answer(whats missing or weak), then offer me an alternative (a second opinion).
Avoid long introductions to topics and avoid general statements.
Don't be overly politically correct and focus on factual statements.
Do not apologize."
Ik zeg bij m'n llm vaak welke toon ze moeten hebben bijvoorbeeld professor, en dat het serieuze antwoorden moeten zijn. De standaard marketing/HR medewerker reacties zijn vervelend..
Vooral van die irritante LinkedIn berichten met al die emojies
Ik zou persoonlijk het liefst helemaal geen ‘persoonlijkheids-zaken’ zien in bepaalde omstandigheden. Dus dat als ik vraag om een stuk code, dat ik niet ongevraagd een introductie en uitleg erbij krijg.

Dus dat ik gewoon puur de code krijg. Ieder woord dat wordt opgestuurd is er een die uitgerekend en verwerkt wordt. Dat is zonde, als het niet nodig is.
Zo worden de ChatGPT copy pastes moeilijker te herkennen als ze niet vol met tussenkoppen met emojis zitten meer. Wat natuurlijk voor de gebruiker wel weer een pré is.
Alleen niet voor de Frontpage mods.
Tja, als het straks alleen nog meer AI interacties zijn op tweakers en reddit, dan is dat het moment dat ik mezelf uit de interactie haal. Succes aan iedereen die wilt reageren met z'n programma's op reacties gegenereerd door programma's. Ik zie de toekomst voor fora en reactie draadjes eerlijk gezegd somber in.
Eens. Ik bedoelde overigens voor de gebruiker ook voor mensen die er wat productiefs mee doen, en bijvoorbeeld als ze er een handleiding mee maken voor een tool, ze niet nodig hebben dat het schreeuwt "CHATGPT!!!!". Dat ze hier op de FP bijvoorbeeld moeilijker te herkennen zijn is uiteraard een nadeel.
ChatGPT laat ook steeds vaker gebruikers hun keuze voor ChatGPT aanpassen (naar bv Gemini). Goede trend. :)
Voor dagelijks algemeen gebruik heeft OpenAI mij verloren en ben ik tegenwoordig klant bij Googles Gemini.

De doorslaggevende vraag was paar weken terug. Ik had schade aan een deur rondom het scharnier en ik heb beiden een foto gestuurd en gevraagd hoe fix ik dit.

OpenAI had een paar vervolgvragen nodig (duur, tokens), Gemini gaf in 1 antwoord drie verschillende opties van verschillende moeilijksheidsgraden en kosten, gesorteerd van "simpel, snel, goedkoop en van twijfelachtige kwaliteit" tot een prof oplossing.

Daar gaat een toontje kunnen instellen niets aan veranderen :)
Waarschijnlijk is dit dan een geleidelijke uitrol geweest. Vorige week beschikte ik al over deze opties.
Dit waste toch allemaal tokens zo? Gewoon een neutraal model trainen. Dit is zonde van de toch nog steeds beperkte context ruimte.

En dat downplayen wat ze doen is zo ongeveer Bill Gates die iets riep over kilobytes. We hebben meer context nodig geen gui voor een stuk system prompt
Kan niet winnen van Gemini, dan maar CharAI
This is ridiculous. Why would an automatic door need a personality? Why would it talk to people passing through it?

...

All the doors ... [here] have a cheerful and sunny disposition. It is their pleasure to open for you, and their satisfaction to close again with the knowledge of a job well done.
Wikipedia: The Hitchhiker's Guide to the Galaxy

Eerder dit jaar was er een vending machine:
https://www.anthropic.com/research/project-vend-1
=> YouTube: Claude ran a business in our office

[Reactie gewijzigd door djwice op 20 december 2025 10:11]

“Why should I want to make anything up? Life's bad enough as it is without wanting to invent any more of it.”

- Marvin

Op dit item kan niet meer gereageerd worden.