OpenAI geeft ChatGPT-gebruikers optie om chatgeschiedenis uit te zetten

OpenAI geeft gebruikers de optie om hun chatgeschiedenis uit te zetten in ChatGPT. Gesprekken worden daarmee niet gebruikt voor het trainen van OpenAI's AI-modellen. Chats worden na dertig dagen permanent verwijderd van de systemen van het bedrijf.

OpenAI stelt de nieuwe privacyoptie vanaf dinsdag beschikbaar aan gebruikers. Gebruikers kunnen hiermee in de ChatGPT-instellingen aangeven dat hun chatgeschiedenis niet opgeslagen mag worden. Wanneer gebruikers dat doen, worden hun chatgesprekken niet gebruikt voor het trainen van de AI-modellen die OpenAI maakt. Gesprekken met de chatbot verschijnen dan ook niet langer in de sidebar van de dienst.

Nieuwe gesprekken worden volgens OpenAI wel dertig dagen bewaard als de chatgeschiedenis is uitgeschakeld. Volgens het bedrijf worden die gesprekken alleen ingezien als het nodig is om ze te controleren op misbruik. Na dertig dagen worden de gesprekken permanent verwijderd. Er komt ook een optie waarmee gebruikers 'gemakkelijker hun ChatGPT-data kunnen exporteren'. Gebruikers die dat doen, krijgen een bestand met chatgesprekken en 'alle andere relevante data' opgestuurd naar hun e-mailadres.

OpenAI zegt verder te werken aan een ChatGPT Business-abonnement. Die dienst zou bedoeld zijn voor professionals die 'meer controle nodig hebben over hun data', naast ondernemingen die hun eindgebruikers willen beheren. Data uit ChatGPT Business wordt standaard niet gebruikt om OpenAI's modellen te trainen. Het nieuwe abonnement moet 'in de komende maanden' uitkomen.

De nieuwe opties volgen op privacyzorgen rondom de dienst in een aantal landen. ChatGPT wordt momenteel onderzocht in onder meer Frankrijk, Ierland en Duitsland. Privacytoezichthouders in Europa onderzoeken daarmee of OpenAI gebruikersgegevens verwerkt zonder de juiste toestemming, wat in strijd is met de AVG. Standaard worden gesprekken met ChatGPT door OpenAI gebruikt om hun modellen te verbeteren.

Italië verbood ChatGPT vorige maand. De Italiaanse zei toen dat ChatGPT weer beschikbaar mocht worden in het land als OpenAI consumenten de optie zou geven om bezwaar te maken tegen het verwerken van hun gegevens, schrijft Reuters. OpenAI-cto Mira Murati zegt tegen dat persbureau dat de nieuwe privacyopties niet zijn geïntroduceerd als een reactie op het verbod in Italië. Het bedrijf zegt maandenlang bezig te zijn geweest om gebruikers meer controle te geven over gegevensverzameling.

ChatGPT-privacyopties
Bron: OpenAI

Door Daan van Monsjou

Nieuwsredacteur

25-04-2023 • 19:48

39

Submitter: Xtuv

Lees meer

Reacties (39)

39
37
16
0
0
9
Wijzig sortering
ChatGPT zonder geschiedenis is hetzelfde als 30 rijden in een Ferrari. Juist door zelf alle context mee te kunnen geven tijdens een gesprek, krijg je veel accuratere antwoorden. Momenteel ligt het geheugenlimiet op 8k tokens, maar de variant met 32K tokens is in opkomst.
Volgens mij betreft dit alleen gehele gesprekken en niet individuele berichten in een gesprek. Dus je context wordt wel onthouden tijdens het gesprek, en zodra je gesprek klaar is wordt alles verwijderd.
Toch apart dat men [Italië] zich druk maakt om deze data en niet de data die reguliere zoek-machines onthouden...
En waarom zou je zoveel 'opbiechten' aan een domme AI?
Ik heb me niet in de details ingelezen, maar zoekmachines indexeren enkel wat openbaar beschikbaar is en bieden dat 'as-is' aan. Er vindt dus geen transformatie van data plaats. OpenAI gebruikt naast open ook gesloten bronnen en doet daadwerkelijk aan transformatie, zonder toestemming van de rechthebbende, en dat is dus een probleem. Althans, zo heb ik het begrepen (ik laat me graag corrigeren).
Dat is niet wat hier speelt. Het nieuwsbericht gaat over het feit dat OpenAI jouw interacties met ChatGPT aan hun kant voor altijd vs voor max 30 dagen logt/bewaard.


Dus alle bedrijfsgeheimen, seksuele opmerkingen, opbiechtingen en criminele verzoeken die jij tijdens het spelen hebt gemaakt in je interactie met ChatGPT kun je nu opvragen (data inzage) en voor nieuwe gesprekken limiteren tot een bewaartermijn van 30 dagen, met erbij dat ChatGPT jouw input niet mag verwerken in toekomstige AI-modellen.
Nu haal je twee dingen door elkaar. ChatGPT slaat inderdaad je chat op, zodat het dan een passend antwoord kan geven op je vragen door je chatgeschiedenis ook raad te kunnen plegen voor context. Dit is gewoon een kortstondig opslag voor direct eigen gebruik, is zeer handig om aan te hebben staan, en zou in principe ook makkelijk te wissen moeten zijn. Als deze chat volledig permanent gewist zou worden nadat je ChatGPT afsluit, de chat verwijderd, of dat het na 30 dagen automatisch verwijderd zou worden, dan zou er geen enkel probleem zijn.

Maar nadat je klaar bent met deze chat blijft ChatGPT deze gegevens opslaan om het later te kunnen gebruiken als model training om volgende versies van ChatGPT te kunnen verbeteren. Nadat ChatGPT jouw chat gebruikt heeft om te leren, hoe en wanneer dat precies gebeurt na je chat is nog onduidelijk, wordt jouw chat dus een onderdeel van de dataset waarop ChatGPT werkt, waar anderen dus weer van gebruik maken. Hier gaat deze privacy discussie over, dat ChatGPT deze persoonlijke gegevens opslaat voor eigen gebruik en dat het dus in feite niet tot nauwelijks te verwijderen is nadat het gebruikt is als trainingsdata. Dit gedeelte is echter waar de zorgen van de Europese privacywetgevingen om gaan.

[Reactie gewijzigd door markdm op 22 juli 2024 15:16]

haha even lezen idd.
Op papier dan, AI zou het blijven onthouden denk ik toch.
Zolang de AI niet actief getraind wordt op de data onthoudt de AI niets. Training en inference (het genereren van tekst) zijn twee compleet verschillende stappen.
Zolang je de twee niet in een feedback steekt ja. Ik denk dat het ondertussen al redelijk bekend is dat OpenAI de input als training data gebruikt (dus ze moeten het bewaren voor een periode) en wilt dit meer en meer real-time doen (oa. reageren op nieuwe informatie van de gebruiker en webpagina's die de gebruiker aangeeft real-time doorzoeken).

[Reactie gewijzigd door Guru Evi op 22 juli 2024 15:16]

OpenAI is in ieder geval via de API gestopt met het per default gebruiken van user input als training data. De originele ChatGPT zelf is gebaseerd op een model wat in October 2022 klaar was met training, voor zover ik weet is er iig geen directe feedback voor training met user input.
Het is niet zo duidelijk. Volgens het bericht dat jij aangeeft is dit enkel de private APIs (betaald en kan via een knop aan/uit), niet de publieke site en wie weet wat veel 3de partij integraties uiteindelijk gaan gebruiken.

Daarnaast staat er enkel dat ze de input niet direct gebruiken om hun diensten te verbeteren, er staat niet expliciet dat ze het niet in een of andere vorm bijhouden, doorverkopen of in andere vormen gebruiken. Maw: het is allemaal advocatenspraak vanwege de media maar niet rechtstreeks een restrictie.
Je kan het op allerlei andere manieren mogelijk niet in de haak vinden, maar de vraag was of user input gebruikt wordt om het model te trainen. Via de API is het antwoord in ieder geval een duidelijke nee.
Wat ik bedoelde was, als ze ooit 'toekeren tegen de mensheid..'
Het resultaat van het gebruik van een large language model is in principe een papegaai, geen T-800.
:D ik moest er wel om lachen, benieuwd hoeveel mensen die link leggen ;) . De derde wet van Arthur C Clarke is bij AI wel van toepassing. Mensen gaan het als "magisch" zien en halen de werkelijkheid en wat er in films gebeurd door elkaar.
De papagaai krijgt wel T800/ Robocop ED 'directives'. Dingen die de AI niet mag concluderen.
In de film Wargames concludeerde de AI dat het uitroeien v/d mensheid de beste oplossing voor planeet Aarde is :-)
En eigenlijk is dat ook zo. Voor de AI dan, niet voor de mensheid
… dan gaan ze met data aan de slag wat verwijderd is? Ik snap niet zo goed wat je punt is.
Ik ben benieuwd hoe de ontwikkeling gaat. Ik gebruik ChatGPT regelmatig, maar bijna alle berichten worden rood getagged, omdat ik ook in de seksuele gezondheid werk. 😂
Een politiek correcte AI dus

Maar volgens wiens politiek?
Vrij simpel toch? Die van OpenAI als bedrijf, en wat ze nodig hebben om verdere regelgeving te voorkomen.
Nu nog een manier om niet constant te horen dst hij bepaalde dingen niet mag, maar uiteindelijk wel doet met de juiste prompts ><
Wat voor prompts dan? Ik vraag het voor een vriend 😀
Wat is überhaupt het nut van chatGPT? Laten we eerst eens normaal tegen elkaar praten in plaats van AI.
Je hoeft ook niet perse als persoon tegen chatGPT aan te praten. Integratie met tooling kan reuze handig zijn. Bijvoorbeeld deze https://www.gripmatix.com/products/scom-ai-gpt
Ik zit niet in deze markt
dus ik probeer eruit te halen qua info wat ik eruit kan halen maar is het zelfs hier niet uiteindelijk beter en 100% water dicht als het door een persoon gedaan word?

Ik zie in ieder geval veel problemen komen van dit medium :)
Als ik dit zie, dan zie ik toch wel een aantal voordelen...

https://youtu.be/S7xTBa93TX8
Het nut is er zeker. Ik zie het als een soort 'persoon' die altijd klaar staat en bijna alles weet en je daarmee kan helpen.

Sterker nog, ik denk en hoop dat er binnenkort een vervolg hierop komt in de vorm van een slimme assistent. Dus geen "hey Google, zet agendapunt x in mijn agenda" maar een assistent die je helpt met maken van afspraken, die je eraan herinnert, die misschien voor jou online of via telefoon belt om die afspraken te maken, en je helpt alles te organiseren.

Ik vergeet zelf vrij veel, en ben chaotisch. Een assistent zou een echte hulp zijn.
Precies dit is het gevaar wat ik zie. Ik ben echt van mening dat we onszelf niet zo afhankelijk moeten maken van technologie, ook niet in het belang van assisteren. Waarom? Omdat je daardoor uiteindelijk nog veel meer vergeet en chaotischer wordt als er één moment komt dat er geen assistent is. Meer dan voor de assistent.

Ik hoop dat er een moment komt dat we elkaar leren accepteren in hoe iemand werkt, hoe chaotisch ook en dat er verschil is.
Mijn leidinggevende heeft een secretaresse die zijn agenda regelt en weet ik wat voor randzaken, dat is dan ook ongezond?
Waarom zou ik dat doen?
regels en verwachtingen van de maatschappij
Ik ben het met je eens in algemene zin, ware het niet dat de "maatschappij" niet een wereldwijd begrip is met dezelfde regels en verwachtingen. Spreken we hier over regels in de zin van wetten? Of wat "ethisch" verantwoord is? Verwachtingen zijn vaak persoonlijke opvattingen en iedereen heeft verschillende verwachtingen.

Ik snap wat je zou willen, maar helaas is de wereld maatschappij te divers om daar eenduidige regels en verwachtingen voor op te stellen. Vandaar ook dat Rusland, China en andere landen met hun eigen chatbot komen zodat deze hun "maatschappij" napraat.
Heb je nu ChatGPT gebruikt om die reactie te genereren? (Als ik jouw tekst aan 'hem' geeft 'zegt/denkt' ie van wel)

On-topic:
In ieder geval fijn dat ze deze mogelijkheid nu inbouwen maar benieuwd hoe ze nu omgaan met de reeds verwerkte input uit de chatgeschiedenis welke opgenomen is in het model en dus later pas kiest om de chat te verwijderen. Heb het vermoeden dat ze dit niet zomaar met terugwerkende kracht los kunnen weken uit het model en de kans op uitlekken van deze gegevens nooit meer 0% is (Het is niet mijn bedoeling om hiermee te suggereren dat je die gegevens niet had moeten delen, of om een discussie daarover te starten).

Hierbij als mooi voorbeeld de gelekte bedrijfsgeheimen van Samsung.
Three Samsung employees reportedly leaked sensitive data to ChatGPT
One is said to have asked the chatbot to generate notes from a recorded meeting.
Hierbij als mooi voorbeeld de gelekte bedrijfsgeheimen van Samsung.
https://www.engadget.com/...to-chatgpt-190221114.html

[Reactie gewijzigd door jdh009 op 22 juli 2024 15:16]

Het is belangrijk dat AI-systemen zich blijven aanpassen aan de regels en verwachtingen van de maatschappij waarin ze opereren om ervoor te zorgen dat ze ethisch en verantwoordelijk functioneren.
AI-systemen zijn niet voor de samenleving, ze werken ten gunste v/d eigenaar.
Bij Google is het winstmaximalisatie v/d bv de advertentie tak.
Bij big pharma sneller en goedkoper medicijnen onwikkelen en en daarmee de winst maximaliseren.
De belastingdienst gebruikt AI om mensen die toeslagen krijgen te pesten.
Waarvoor het Pentagon AI inzet kun je zelf wel bedenken.

Mijn punt is dat AI nooit ingezet wordt om Stijnm80 te matsen. Als dat al gebeurt is het een toevallige bijzaak.
Mooi ChatGPT gegenereerd antwoord :)

Op dit item kan niet meer gereageerd worden.