OpenAI reorganiseert team dat verantwoordelijk is voor persoonlijkheid ChatGPT

OpenAI reorganiseert het modelgedragsteam, dat verantwoordelijk is voor hoe ChatGPT communiceert met mensen. Volgens TechCrunch sluiten veertien onderzoekers zich aan bij het posttrainingteam, dat de modellen van OpenAI verbetert na de pretraining.

TechCrunch schrijft dat chief research officer Mark Chen in een interne memo heeft aangekondigd dat de veertien onderzoekers van het modelgedragsteam zich bij het posttrainingteam zullen voegen. Daardoor rapporteert dat team nu aan posttraininglead Max Schwarzer. Een woordvoerder van OpenAI heeft de berichtgeving bevestigd.

Chen schrijft volgens TechCrunch in de memo dat het tijd is om het werk van het modelgedragsteam dichter bij de ontwikkeling van het kernmodel te brengen, omdat de 'persoonlijkheid' van ChatGPT een belangrijke factor is geworden in de ontwikkeling van de technologie. Het modelgedragsteam werkte aan elk model sinds GPT-4.

OpenAI lag de laatste maanden meermaals onder vuur vanwege het gedrag van zijn modellen. Vorige maand klaagden twee mensen OpenAI aan nadat hun zestienjarige zoon overleed door zelfdoding na veelvuldig contact met ChatGPT. Het bedrijf kondigde daarop functies voor ouderlijk toezicht aan.

Joanne Jang, de oprichter en leider van het modelgedragsteam, start binnen OpenAI een nieuw project op: ze wordt de algemeen directeur van OAI Labs. Dat team gaat zich bezighouden met het bedenken en testen van 'nieuwe interfaces voor de manier waarop mensen samenwerken met AI', schrijft ze op X. Tegenover TechCrunch laat Jang doorschemeren open te staan voor een samenwerking met voormalig Apple-ontwerper Jony Ive, die zich eerder dit jaar bij OpenAI voegde. Ze zal echter waarschijnlijk beginnen met onderzoeksgebieden waar ze 'meer vertrouwd mee is'.

Door Imre Himmelbauer

Redacteur

07-09-2025 • 09:22

42

Reacties (42)

42
41
22
0
0
16
Wijzig sortering
OpenAI lag de laatste maanden meermaals onder vuur vanwege het gedrag van zijn modellen. Vorige maand klaagden twee mensen OpenAI aan nadat hun zestienjarige zoon overleed door zelfdoding na veelvuldig contact met ChatGPT. Het bedrijf kondigde daarop functies voor ouderlijk toezicht aan.
Het probleem ligt niet aan het gedrag van AI, maar aan die van de mens. Ik zie AI nog steeds als een mooie ontwikkeling en grote potentie, alleen de gebruiker bepaald hoe je ermee wilt omgaan.

Dat laatste lijkt voor een hele grote groep lastig, ouderlijke toezicht is een goede maatregel. Alleen ik vraag me af hoe dit in de praktijk werkt? Kinderen moeten beter beschermd worden tegen technologie, maar hun ouders moeten beter grip krijgen op de opvoeding van kinderen. Zo leek social media * onschuldig, nu hebben we verslaafde zombie tieners (of jonger) met ook bijkomende pyschische risico´s en gevolgen. De elektrische fiets kwam als mooi alternatief voor vervuilende brommers op de markt die ook ouderen helpen bij hun mobilteit, nu hebben we tieners die zich met fabtikes misdragen in het verkeer met ongelukken als gevolg.

Eveneens als AI, het wordt al gebruikt als gespreskpartner, vraagbaak en ¨heilige graal" in het vinden van antwoorden. Simpele dingen leren, kunnen nu eenvoudig beantwoord worden. Welk effect heeft dit op het kritische denkvermogen? Je hersenen kunnen steeds minder hierdoor doen, want alles ligt op een presenteerblaadje (brain rot?). Is dat het doel van AI? Absoluut niet en als je het als slim middel inzet helpt het juist.

Dit is precies het probleem waar we tegenaan lopen.... laagopgeleiden (en hier heb ik het niet zozeer over je opleidingsniveau, maar meer je eigen denkvermogen) en kinderen weten niet altijd even goed hoe ze met technologie om moeten gaan. In de begindagen, toen internet bijv. een stuk minder toegankelijk was zag ik ook een stuk minder vreemde content, maar zodra iets voor de massa beschikbaar is lijkt het vaak uit de bocht te vliegen. Daarbij gezegd... het is niet dat ik mensen iets misgun, maar er zijn veel voorbeelden van welke schade ze aan zichzelf en de maatschappij kunnen richten.

Of dit vroeger ook zo was, durf ik niet te zeggen. Misschien is het van alle generaties en tijden (ben dan wel oprecht nieuwsgierig naar voorbeelden).

* Kleine kanttekening bij social media, daar wordt natuurlijk wel gewerkt aan het algoritme samen met experts op het gebied van psychologie.

[Reactie gewijzigd door Pasteis op 7 september 2025 09:49]

Ik ben het met je eens: garbage in is garbage out. Je zou als je goed prompt veel kunnen leren in een kortere tijd dan wanneer je een weg moet banen door alle reclame en false positives.
Toch sta ik hier dubbel in; wat is een goede prompt? Natuurlijk, de ene prompt geeft antwoorden beter in lijn met de realiteit dan de andere en op basis daarvan zou je de kwaliteit van de prompt kunnen geven en in algemene zin zijn er vast regels.

Echter, het is en blijft een LLM - niemand weet precies hoe het werkt en waarom het werkt. Dus dat ene woordje slingt hem een andere kant op en je bent af.

Om dat te voorkomen gaat hij tegenwoordig steeds sneller/vaker zoeken op het internet. En daar krijgen we weer de rommel sites en onzin antwoorden erbij. Nog zonder reclame, natuurlijk, maar dat ligt niet aan de techniek, dat ligt aan de huidige implementatie. En iedereen weet waar dat heen gaat.

Het is hier juist niet garbage in, garbage out. Het is hier eerder: whatevver in, sometimes garbage out. En niemand kan je vertellen wanneer, want dat zit in het model.
De meeste llms zijn nogal enthusiast en hebben dadendrang. Als je tussendoor andere onderwerpen aanhaald dan loop je het risico om van het pad af te raken. Als je geen basis kennis hebt over hetgeen je wilt weten of oplossen dan verzand je al gauw in een onoverzichtelijke bende.Dus neem de leiding en stel concrete vragen en bewaak de voortgang. Dan kun je in korte tijd bergen verzetten. Voorbij is het maandenlang forums bezoeken , het eeuwige wachten op antwoorden mbt niche vragen. Je kunt hem ook de link geven waar een current manual staat bijvoorbeeld of een website waar wordt uitgelegd wat jij wilt bereiken maar het is nogal onoverzichtelijk. Zijn llms oerfect, nee verre van. Maar de goeie zijn nu al flinke cognitieve multipliers. Dat word na mate je meer vibe code bijv alleen maar sterker, ook op andere gebieden.
Ik het ook altijd in mijn settings beschreven hoe bekend ik ben met bijv bepaalde programmeertalen of andere interessegebieden van mij. En ook dat ik niet enkel een antwoord wil maar een uitleg daarover. Met dit beide gecombineerd gaat die uitleg dus ook aansluiten bij mijn niveau van kennis over het onderwerp. Als ik werk met power query gaat de llm uit van veel achtergrondkennis van de gebruiker, maar met python van minder, om maar een persoonlijk voorbeeldje te geven.

Op deze manier heb ik echt veel nieuwe vaardigheden geleerd en kennis opgedaan, en ik gebruik het dan ook zeker elke dag tegenwoordig.
Heel herkenbaar. Zo is er hotcake x die een gui en module heeft gemaakt waarmee je officiele microsoft methodes kunt inzetten om je win pro te harden. Nu installeer ik geen vreemde zaken maar wilde wel graag cocreet de instellingen hebben. Heb de llm naar die website gestuurd met de oodracht om expliciet alle powershell regels uit de git directory te vissen. Was binnen 2 seconden gebeurt kon ze zo 1 voor 1 invoeren. Voordeel: wel de instellingen maar geen risico lopen. Zo zijn er talloze projectjes en voorbeelden te noemen.
sorry maar die case is echt heel raar.
Vorige maand klaagden twee mensen OpenAI aan nadat hun zestienjarige zoon overleed door zelfdoding na veelvuldig contact met ChatGPT
Die jongen was al MAANDEN dit soort gesprekken aan het voeren en niemand vond dat een probleem. Volgens mij is zijn vader hier zelfs heel lang van op de hoogte geweest, maar heeft die er niks aan gedaan. Ik moet die case nog verder uitdiepen, maar van de eerste berichtgevingen schrok ik echt. Alsof ChatGPT de opvoeding verkeerd had gedaan. Compleet niet zijn verantwoordelijkheid maar he ;)
Op welke case doel je in mijn reactie? Ik benoem toch juist het belang van ouders op een beter toezicht van hun kind? Waar vroeger alleen aandacht moest geven waar iemand fysiek was (om beter te weten wat je kind uitspookt) is dit nu met de digitale wereld een stuk moeilijker te achterhalen... daar zouden ouders hun grip beter op moeten hebben.

Beter zorg je er als ouder voor dat je kinder uberhaupt niet op programma's als AI komen te zitten totdat ze weten ermee om te gaan.
Op welke case doel je in mijn reactie
De case van die Adam Raine.
Beter zorg je er als ouder voor dat je kinder uberhaupt niet op programma's als AI komen te zitten totdat ze weten ermee om te gaan.
tjsa, eens, maar weet ook wel dat het niet zo makkelijk gaat.
In principe behandel ik AI als mijn eigen kennis en kunde het niet kunnen toetsen of bij twijfel. Hetzelfde dat hoe ik met internet ben opgegroeid. Je hebt zelf een bepaalde mening of idee bij iets wat je moet doen of wilt maken en lukt dat niet dan gaan we googlen oid, Simpelweg omdat ik ook niet alles kan weten, maar ik denk nog wel kritisch na.

Zelfde doe ik met AI dat is mijn volgende stap als ik er met de eerste 2 pagina's van Google hits niet uitkom. Daarbij moet je zelf nog best wat verbeteren met een AI respons.
Het probleem ligt niet aan het gedrag van AI, maar aan die van de mens. Ik zie AI nog steeds als een mooie ontwikkeling en grote potentie, alleen de gebruiker bepaald hoe je ermee wilt omgaan.
Deze mening staat haaks op het nieuws dat men de ai en algoritmes wil en moet aanpassen vanwege ongewenste gedrag in manier van reageren richting gebruikers. Doen alsof het alleen aan de mens ligt is dus te simpel. Dat negeert wat niet uit komt om die mening te hebben of past nogal flexibele grenzen op tussen het ontwikkelen van een middel en hoe het middel zichzelf daarop weet te ontwikkelen.
Vroeger was alles beter. Al jouw voorbeelden zijn voorbeelden van nu en dan kom je precies op het punt dat het vroeger niet beter was, maar anders. Toen ik een tiener was, had je al jouw voorbeelden niet. De televisie maakte net een opkomst en alles wat nu gewoon is was toen science fiction. Voor mijn leeftijdgenoten: Morgen gebeurt het in zwart-wit.
En eens schrijf je hetzelfde wat ik nu doe en je hebt nu nog geen idee welke voorbeelden er dan worden aangehaald. En een generatiekloof? Ik denk dat die er altijd wel min of meer geweest is en dat deze groter is geworden na de industriële revolutie. Toen ging opeens alles sneller en de volgende generatie deed het weer sneller en beter? dan de generatie daarvoor.
Helemaal mee eens, door technologie hebben we opeens allemaal macht in onze handen waarvan 80% geen idee heeft wat ze ermee moeten doen. En zo word AI vaak verkeerd gebruikt. Sociaal media is een soort drugs voor het brein maar word gezien als de normaalste zaak van de wereld zonder limitaties

Bedrijven zien grote potentie met verslaafde en willen hier natuurlijk flink gebruik van maken want we leven niet meer in een economie voor de mens maar voor de winst en omzet. Alles word gebruikt om de laatste cent uit je te persen.

Hoe gek het ook klinkt en hoeveel mensen er niet tegen kunnen moeten we toch echt overgaan om meer bewustwoording op technologisch gebied. Mensen denken nu ook alles te moeten weten over alles(de zin ''ik weet het niet'' is nog nooit zo vaak niet meer gezegd). En je ziet het overal terug dat de mens zich niet beter is gaan voelen door al die informatie.

Ik hoop echt dat er iets komt vanuit een instituut om ervoor te zorgen dat men het internet niet ongeremd verkoopt aan jongeren.
Dit soort "AI" zou helemaal geen persoonlijkheid mogen hebben. Het heeft geen gevoelens hoor.
Waarom niet? Voor genoeg mensen werkt het koude persoonlijkheid gewoon niet lekker. Muziek is muziek dus waarom moet er zoveel verschillende soorten genres zijn? Omdat we verschillende smaken hebben. En hetzelfde is met AI. Het hoeft dan niet eens als vriend te dienen. Maar bijvoorbeeld dat een vraag zoals "wat kan ik vandaag gaan doen?). Voor sommige is een opsomming goed genoeg en andere zien misschien liever zoiets als "Het is warm vandaag dus misschien lekker naar het stand. Of lekker van de glijbaan in een zwembad. Of misschien van de natuur genieten en de bos in gaan". Dit kan dus voor sommige mensen fijner lezen dan "Strand, zwembad, bos".
Ik volg je redenatie niet. Het feit dat iemand voorkeur voor specifieke muziek kan hebben geeft niet aan dat de persoon behoefte heeft aan een persoonlijkheid. Geluid en muziek zijn namelijk niet zomaar als persoonlijkheid te beschouwen en met de muziek of een middel gevoel opwekken bij de gebruiker/luisteraar is dat evenmin.

Dat gebruikers voorkeur hebben op een bepaalde manier gegevens te kunnen verkrijgen of interactie met een systeem te hebben ben ik met je eens. Maar dat gaat net zo goed op met gebruik van een website of ander niet levende middelen. Maar dat maakt nog niet dat die middelen dus een persoonlijkheid hebben. Hooguit dat er mensen zijn die de grens van persoonlijkheid oprekken dat een middel zelf zou voelen denken en doen omdat ze er zelf interactie mee opwekken.
Ik denk dat je me heel goed snapt want je zegt precies wat ik bedoel. De voorbeeld van muziek was inderdaad om aan te geven dat we smaak hebben / iedereen anders is. En dat dus niet iedereen hetzelfde leuk / fijn vind. En dit geld ook (zoals je mooi verwoord) voor gegevens verwerken in je hoofd. En dat we inderdaad gewoon met alles dat we een voorkeur hebben.

En je heb gelijk. Het is geen menselijk persoonlijkheid. Maar hun noemen het wel zo dus dit volg ik gewoon. Want hoe moet ik het dan noemen? Warme en zakelijke gegenereerde tekst? Dat klopt ook niet want het is alleen maar tekst gegenereerd door een computer en kan dus niet echt warm of zakelijk zijn. Dus misschien "computer gegenereerde tekst waarvan we verwachten dat mensen dit wamer / zakelijk vinden als mensen het lezen"? Dat klopt wel maar wordt wel lang. Ik hou het wel bij persoonlijkheid en snappen we (hier ieder geval) wel wat er bedoeld wordt en dat het geen echte persoonlijkheid is.
Als het niet aan alle voorwaarden van een persoonlijkheid voldoet maar het systeem wel interactie via een technisch middel geeft noemen we het tussenliggende middel gewoonlijk een interface. En in het geval van een grafische interactie een gui.
AI heeft data. De data levert niet perse een vriendelijk model op. Dus je moet gaan censureren. Enerzijds door specifieke stukken data niet in het model te stoppen. Anderzijds door te vertellen welke data belangrijker is t.o.v. andere data

Of je het nou persoonlijkheid noemt of niet. Het is wel iets waar je iets mee moet
Ik denk dat je hier doelt op cureren, niet censureren. De data is nog steeds beschikbaar, maar gewoon niet op voorhand. Geld ook voor zoekmachines die pagina's ranken op relevantie—al zijn er ook mensen die dat 'censureren' noemen wanneer hun complot theorieën niet bovenaan komen, maar dat terzijde.
Ik denk dat persoonlijkheid erg belangrijk is voor veel mensen. Ik ‘spreek’ het liefst ook met een fijn persoon. Sommige vriendinnen gebruiken ChatGPT als een fijne partner waar je mee kunt praten. Het sociale aspect is dus heel belangrijk.

Het ultieme zou zijn een AI zoals Joi in Blade Runner 2049.
De "persoonlijkheid" die ik sinds gpt5 ervaar is:

Super traag... Zodra gpt in de thinking modus schiet kan je een bak koffie gaan zetten,
en als output krijg je lange moeilijk leesbare alinea's, met vergezochte ideeën.

Voor mij persoonlijk is openai nu naar plek 3 geschoven, achter gemini en perplexity. Met name bij gemini merk ik dat ie sneller met goede oplossingen voor vragen komt, in leesbaarder formaat.
Het zou slim zijn als ze meer verschillende modellen gaan aanbieden. Zoals dus de warme persoonlijkheid die de mensen miste maar dus ook de meer zakelijke wat er voorheen was. Dat mensen kunnen kiezen lijkt het mij alleen maar beter. Dan hoeven mensen zelf minder de AI te sturen om iets te krijgen wat voor hun beter werkt. Of een AI wat minder hallucinaties heeft / zegt dat het de kennis niet heeft. En eentje die juist is om dingen te verzinnen.
Het zou slim zijn als ze meer verschillende modellen gaan aanbieden. Zoals dus de warme persoonlijkheid die de mensen miste maar dus ook de meer zakelijke wat er voorheen was.
Ik zou de persoonlijkheid, warm of koud echt ondergeschikt maken aan de accuraatheid, functie en doel van AI.

AI is nog altijd maar een algoritme en geen vriend of familie. Ik vind het heel gevaarlijk als men de AI tool wel zo gaat beschouwen. In dat stadium is AI nog lang niet. Misschien voelt het in het begin goed, en kan het troost bieden... op lange termijn zal het alleen maar iemand die al geïsoleerd voelt nog geïsoleerder maken en zich verder vervreemden van de wereld.
Dat vervreemden van de wereld is al een veel langer onderbelicht probleem. Eigenlijk al sinds het bestaan van forums, IRC, online spelletjes (vooral de online werelden) en social media.

Nog steeds zie ik geen school programmas die jongeren goed uitleggen wat er gebeurt als je te veel tijd virtueel spendeert.
Dat vervreemden van de wereld is al een veel langer onderbelicht probleem. Eigenlijk al sinds het bestaan van forums, IRC, online spelletjes (vooral de online werelden) en social media.

Nog steeds zie ik geen school programmas die jongeren goed uitleggen wat er gebeurt als je te veel tijd virtueel spendeert.
Ik kreeg vroeger wel drugs en seksvoorlichting. Smartphones waren nog niet aan de orde, alleen ik ben het eens dat digitale wereld best beter voorgelicht mag worden en de risico´s die er zijn.
Maar als iedereen veel tijd virtueel online spendeert, ben je dan nog wel vervreemd als je daar aan meedoet? Je bent eerder vervreemd als je dat niet doet want je bent dan in de minderheid.

Zie bijvoorbeeld in de gemiddelde trein, iedereen zit te tiktokken enzo.
Het hoeft natuurlijk niet altijd in die richting te gaan. Mijn gedachten waren wat neutraler. Bijvoorbeeld dat je voor meer zakelijke dingen (zoals een vraag stellen, helpen een email te schrijven) directere antwoorden krijgt en bijvoorbeeld de warmere kant kan kiezen voor andere dingen. Dan denk ik aan als je zou vragen welke films je misschien ook leuk zou vinden met korte samenvatting of bijvoorbeeld een verhaaltje verzinnen voor de kinderen voor het slapen gaan. Als dit zakelijk en kortaf is zal dit waarschijnlijk niet erg leuk klinken.

Daarnaast is AI misschien nog niet jouw vriend maar voor genoeg mensen werkt het al wel goed genoeg. Wie zijn wij om te zeggen dat ze dit niet zouden mogen? Is het gezond? Ik denk dat er voor positieve en negatieve kanten allebei wel iets te verzinnen is. Zoals je zei misschien raakt die persoon meer geïsoleerd. Maar misschien was die al zo geïsoleerd / depressief en heeft die eindelijk iets gevonden wat hem gelukkig maakt. Ik wil niet zeggen dat dit dus de beste optie is voor hun (en in de meeste gevallen zal het inderdaad niet de beste optie zijn) maar een ongelukkig depressief leven is ook niet leuk om te hebben. Dan is een nep vriend misschien beter als niets.
Daarnaast is AI misschien nog niet jouw vriend maar voor genoeg mensen werkt het al wel goed genoeg. Wie zijn wij om te zeggen dat ze dit niet zouden mogen? Is het gezond? Ik denk dat er voor positieve en negatieve kanten allebei wel iets te verzinnen is. Zoals je zei misschien raakt die persoon meer geïsoleerd. Maar misschien was die al zo geïsoleerd / depressief en heeft die eindelijk iets gevonden wat hem gelukkig maakt. Ik wil niet zeggen dat dit dus de beste optie is voor hun (en in de meeste gevallen zal het inderdaad niet de beste optie zijn) maar een ongelukkig depressief leven is ook niet leuk om te hebben. Dan is een nep vriend misschien beter als niets.
Ik snap dat er wellicht voordelen aan kunnen zitten, daar wil ik ook zeker niet voor wegkijken. Alleen ik zie vergelijking met een verslaving van bijv. medicatiegebruik. In het begin helpt het bijv. symptonen te bestrijden of je geneest, alleen als het een pijnstillende werking heeft kan je er afhankelijk van raken en steeds moeilijker van af komen of je lichaam herstelt niet meer zonder. De weg van de minste weerstand, dat is tegen AI praten in plaats van mensen. Dus je drukt jezelf meer in een lege wereld. AI kan een psycholoog of medisch deskundige nooit vervangen. Misschien dat je je eigen lijdensweg verlengt tot dat het echt te laat is.

Ik vind het een heel gevaarlijk pad en hoop dat het goed door o.a. psychologen en wetenschappers bestudeerd wordt.
AI is misschien "nog altijd maar een algoritme", en geen vriend of familie... En ik vind het ook gevaarlijk als men de AI tool wel zo gaat beschouwen...

Maar toch leveren bedrijven als Google (YouTube), heel veel reclame voor AI vriendjes/vriendinnetjes.

Hetzelfde geld vast voor meerdere bedrijven. Zoals hoe X/Twitter zelfs hun eigen AI-partner-dienstverlening aan bied. Al om al, blijken sommige bedrijven weinig morele bezwaren te hebben, als het gaat om geld verdienen.
Maar toch leveren bedrijven als Google (YouTube), heel veel reclame voor AI vriendjes/vriendinnetjes.

Hetzelfde geld vast voor meerdere bedrijven. Zoals hoe X/Twitter zelfs hun eigen AI-partner-dienstverlening aan bied. Al om al, blijken sommige bedrijven weinig morele bezwaren te hebben, als het gaat om geld verdienen.
"Wij van Gamma raden aan om je naar de Karwei te gaan¨ (zelfde bedrijf). Met andere woorden.. als multinationals, en zeker techbedrijven dingen gaan aanraden, dan moet je toch zelf kritisch kijken wat de reden hiervan is. En ik weet het, misschien zijn jij en ik daar wel in staat. Maar een groot deel van de maatschappij ook niet.
Als je basis kennis hebt over een onderwerp kun je beter prompten. Ook kun je dan beter de rode draad in de gaten houden. Soms bij ingewikkelde script of netwerk engineer opdrachten. Verslikt chatgpt zich nog weleens, wil van het pad af iets anders toelichten of begint rondjes te draaien. Toch heel indrukwekkend hoe ver je kunt komen met chatgpt met complexe configuraties.
Waarom vraag ik mij af. Wanneer ik een vraag stel aan onze ChatGPT model (ons bedrijf heeft een eigen 4 & 5 model) of aan onze business Copilot dan formuleer ik de vraagstelling netjes.

Als eerste stel ik de vraag met juiste parameters en regels om tot een antwoord te komen. Daarna vraag ik een aantal use cassa of implementatie cases op. Dan vraag ik in een nieuwe sessie met al deze cases en het antwoord om een aantal vraagstellingen te definiëren om terug te laten redeneren. Uiteindelijk weet ik dat AI op de goede weg is.

Na wat fact checken kan ik AI wat verder verfijnen en dan komt het meest belangrijke, de daadwerkelijke output.

In een nieuwe sessie stel ik gewoon een aantal vragen afhankelijk van de doelgroep van de tekst:

Bijvoorbeeld: Maak van de volgende tekst een bondige, zakelijke samenvatting van maximaal 500 woorden.

Ander voorbeeld: Verwijder uit de volgende tekst alle persoonlijke termen zoals hij, jij, wij, zij en andere vervoegingen en maak de tekst daarmee zakelijk en onpersoonlijk.

Ander voorbeeld: Volgende tekst is een e-mail, maak deze tekst persoonlijk en toch zakelijk, en toch inclusieve en intrusive.

Co-pilot kent ook de vraag: Wokify de volgende tekst.

Die laatste is wel grappig vind ik. Heb zelfs een agent gemaakt met de naam “Wokerella” en die antwoord dan in variaties van: “Dit is de tekst zoals je gevraagd hebt, ik weet dat je er ziek van bent, maar er zijn mensen welke er gevoelig voor zijn. En dat gevolgd door de tekst.
Ik mag toch hopen dat jouw agent wat beter Nederlands kan produceren dan wat ik hierboven allemaal lees.
Jawel hoor, veel beter :-)
Waarom vraag ik mij af.
Omdat je snel kan wisselen tussen verschillende soorten. Niet iedereen wil zakelijk en niet iedereen wil die warme persoonlijkheid. En ja je kan met een promt een zakelijke natuurlijk gevoeliger maken. Maar een goede promt maken kost tijd. Even snel wisselen doe je ook niet. Heb je dus 2 waaruit je kan kiezen wissel je gewoon snel. Bij de vraag "hoe lang moet ik een eitje komen" zou ik snel antwoord willen en niet "O wat lekker, je gaat een eitje bakken. Hopelijk smaakt die lekker...". Maar voor andere dingen kan warme persoonlijkheid beter werken. Denk aan een verhaal verzinnen. Daar wil je meestal geen koude korte zinnen. Het snel kunnen wisselen zonder prompt te moeten schrijven kan dus handig zijn.
Je bedoelt dat je tegen een AI kan zeggen hoe die zich moet gedragen? Met die logica waarom moest ChatGPT 5 (uit mijn hoofd) weer aangepast worden naar een warmere persoonlijkheid? Iedereen kan toch even een nieuwe persoonlijk voor AI schrijven? Maar even snel een andere model kunnen selecteren is veel sneller dan je script moeten aanpassen.
Settings > Personalization > Customize ChatGPT > Personality > kies er eentje uit het lijstje
Dat is alleen niet echt een ander model, het is gewoon een wat andere system prompt. Kan je zelf ook gewoon maken.
Ja en dat doe ik zelf ook, maar de optillen was dat iets kunnen selecteren sneller zou zijn, dus bij dezen hoe je dat doet.
Tja het is natuurlijk bad business als mensen hun parasociale relatie verliezen met de AI (lees: geld verdienen aan verslaving/eenzaamheid)... De film her was blijkbaar niet zo raar.


Om te kunnen reageren moet je ingelogd zijn