Reuters: Frankrijk, Ierland en Duitsland onderzoeken landelijk verbod op ChatGPT

Verschillende Europese privacytoezichthouders doen onderzoek naar het gebruik van ChatGPT. Dat doen ze in navolging van de Italiaanse toezichthouder, die de tool onlangs verbood. Niet alle waakhonden kijken naar een verbod.

Onder andere de Franse en Ierse privacytoezichthouders hebben vragen gesteld aan de Italiaanse Garante per la protezione dei dati personali, schrijft Reuters. De toezichthouders willen weten op welke exacte gronden Italië ChatGPT heeft verboden. Vorige week verbood de nationale toezichthouder de tool in het land. OpenAI, de ontwikkelaar van ChatGPT, maakte de tool vanaf toen op dns-niveau per direct onbereikbaar.

De Garante per la protezione dei dati personali denkt dat ChatGPT de AVG overtreedt omdat er bij het trainen geen toestemming is gevraagd voor het gebruik van persoonlijke data, maar de exacte redenering blijft nog vaag. Andere Europese toezichthouders willen waarschijnlijk kijken of een ban ook in dat land nodig is, of dat er andere sancties kunnen en moeten worden opgelegd aan OpenAI. Ook een Duitse privacywaakhond zou een verbod overwegen, al is de status daar niet van bekend.

Niet alle toezichthouders overwegen een verbod. Volgens Reuters heeft de Zweedse toezichthouder geen behoefte aan een onderzoek. De Spaanse autoriteit heeft momenteel nog geen onderzoek lopen, maar sluit dat niet uit.

Door Tijs Hofmans

Nieuwscoördinator

06-04-2023 • 20:15

154

Submitter: Sando

Reacties (154)

154
151
63
5
0
63
Wijzig sortering
Belachelijk dat overheden bepalen wat we wel en niet mogen gebruiken. ChatGPT is een hele nuttige tool voor bijvoorbeeld programmeren.

Willen ze dan ook Bing, MS Office en GitHub Copilot X verbieden? Die krijgen of hebben ook ChatGPT integratie.
Zover ik het begreep gaan de zorgen niet om de tool an sich, maar meer over de manier waarop de tool omgaat met data en hoe dit verwerkt wordt. Zelfs als je al jouw gesprekken en gehele geschiedenis verwijderd kan het zijn dat de data nog steeds in het systeem zit. Doordat deze data gebruikt mag worden om het model te trainen en dus 'ergens' in de black box kan zijn opgeslagen. Het lijkt er soms op dat iedereen deze tool maar voor van alles en nog wat inzet, waarbij er totaal niet wordt stil gestaan wat ze delen en hiermee onbedoeld gevoelige informatie doorgeven en in het publieke domein brengen.
However, the query will be visible to the organisation providing the LLM (so in the case of ChatGPT, to OpenAI). Those queries are stored and will almost certainly be used for developing the LLM service or model at some point. This could mean that the LLM provider (or its partners/contractors) are able to read queries, and may incorporate them in some way into future versions. As such, the terms of use and privacy policy need to be thoroughly understood before asking sensitive questions.

A question might be sensitive because of data included in the query, or because who is asking the question (and when). Examples of the latter might be if a CEO is discovered to have asked 'how best to lay off an employee?', or somebody asking revealing health or relationship questions. Also bear in mind aggregation of information across multiple queries using the same login.

Another risk, which increases as more organisations produce LLMs, is that queries stored online may be hacked, leaked, or more likely accidentally made publicly accessible. This could include potentially user-identifiable information. A further risk is that the operator of the LLM is later acquired by an organisation with a different approach to privacy than was true when data was entered by users.

As such, the NCSC recommends:
  • not to include sensitive information in queries to public LLMs
  • not to submit queries to public LLMs that would lead to issues were they made public

[Reactie gewijzigd door jdh009 op 22 juli 2024 19:47]

Dus mijn 'conversatie' met ChatGPT wordt ook beschouwd als privé en de data daaruit mag niet gebruikt worden? Dat is toch echt de waanzin ten top! Wat denken ze dat iemand allemaal deelt met zo'n chatbot? Bankgegevens ofzo? Als je een klein beetje verstand hebt, ga je toch geen gegevens met zo'n bot delen die privacygevoelig zijn? Of ben ik nou raar?
Ik weet dat er mensen zijn die via de chatbot stukjes programmeerwerk te krijgen, maar zelfs in die gevallen zorg je er toch voor dat er niets gevoeligs in de data zit die je met de chatbot deelt? Geen idee of ik nou iets belangrijks mis, maar vooral met privacy is met vooral erg hysterisch en soms ongelooflijk dom.
Een zoekmachine weet ook precies wat er gevraagd wordt en slaat de queries op en gebruikt deze voor bv de inputvoorspellingen. Wat is het verschil?
er zijn genoeg bedrijven die hun bedrijfsdata door GPT-4 hebben laten bewerken. daar kan ook klant informatie en eigen werknemers in voor komen, en dat zijn persoonsgegevens die je mischien niet op straat wil hebben
Anoniem: 352566 @robertlinke7 april 2023 14:03
Daar hebben de betreffende personen dan toegang gegeven of het is verboden. Dat iemand verkeerd gebruik kan maken is geen argument om een tool geheel te verbieden
daar ben ik het persoonlijk ook mee eens, de europese waakhonden zo te zien niet
Bewerken in welke zin? Om de chatbot een leuk verhaaltje te laten genereren voor op de site?
Om fouten te vinden in bedrijfsprocessen bijvoorbeeld
nee, meer in wat @ajbs al zegt, maar bijvoorbeeld ook een database laten maken met de volgende data voor een nieuwe business unit. of patroon herkenning uitvoeren op echte aankopen. of een script laten schrijven voor automatische e-mails naar een e-mail lijst.

dit zijn allemaal voorbeelden die al uitgevoerd zijn met chatGPT, en dus alle data, de emails, aankoop informatie, alles wat je invoerd kan worden gebruikt voor trainingsdata
Dus jij reduceert ChatGPT tot een chatbot die leuke verhaaltjes maakt voor op een site? Ik neem aan dat je dit bewust doet en wel beter weet. ChatGPT is een enorm krachtige tool waar persoonsgegevens natuurlijk enorm goed beschermd moeten worden. Iedereen moet zich aan de GDPR houden, dus ook de makers van ChatGPT. Er zijn voorbeelden genoeg waarin complete lijsten met persoonsgegevens worden gevoerd aan ChatGPT om er vervolgens de best mogelijke marketing propositie voor te schrijven. Als deze gegevens worden gebruikt om het model te leren dan weten ze straks letterlijk alles over je.
Dit kan natuurlijk ontzettend misbruikt worden. Daarom is transparantie over wat er met de data gebeurd en de mogelijkheid om je hier als persoon tegen te verzetten enorm belangrijk. En een wettelijk recht.
Als je alleen maar reageert op één reactie en niet kijkt waar dat dan weer een reactie op was, kan het daarop lijken. Je moet de hele conversatie bekijken.

Maar dan nog: als iemand zo stom is om privégegevens, echte persoonsgegevens e.d in te voeren bij zo'n chatbot ben je gewoon verkeerd bezig. Niet de zaken omdraaien en zeggen dat zij het maar goed moeten borgen enzo. Ik zou dat nooit doen. Als je dat ding een leuk verhaaltje wilt laten genereren omdat je er zelf te lui voor bent, moet je fake data opvoeren en de gegevens later, offline, aanpassen. Als dat tenminste niet teveel moeite is.

Ik begrijp mensen niet. Google, Microsoft enzo zijn commerciele organisaties. Je denkt toch niet dat ze die diensten neerzetten for the greater good of mankind? Iedereen weet al jaren dat je moet opletten met wat je waar neerzet qua privëgegevens. Mensen zijn bang om Google Keep te gebruiken of GMail omdat ze bang zijn dat Google meeleest en hun gegevens pikt. En dan ga je ze wel opvoeren bij een Chatbot? Denk na, zou ik zeggen en leg de bal eerst bij jezelf neer en ga dan pas kijken wat zij kunnen of moeten doen.

[Reactie gewijzigd door mphilipp op 22 juli 2024 19:47]

Je slaat de plank volledig mis. Het gaat er om welke persoonsgegevens zij van jou verwerken. Niet om wat jij erin stopt. Zij moeten inzichtelijk kunnen maken welke gegevens ze over je hebben en wat ze daar mee doen. Het kan dus heel goed zijn dat er allerlei gegevens over jou als persoon in het systeem worden geladen (door derden). Die kunnen worden gecombineerd omdat het systeem daar van leert. Zo kunnen er zaken naar buiten komen waar jij helemaal niet op zit te wachten, laat staan toestemming voor hebt gegeven. Er is simpelweg wetgeving waar iedereen zich aan moet houden. Dus ook een partij als ChatGPT. En in je reactie noem je wederom het slappe verhaaltjes voorbeeld. Als je echt denkt dat dat is waar deze krachtige AI voor ingezet wordt of gaat worden dan heb je niet goed opgelet de afgelopen periode.
Je slaat de plank volledig mis. Het gaat er om welke persoonsgegevens zij van jou verwerken. Niet om wat jij erin stopt.
Dat was dus mijn vraag: wat zijn dan die persoonsgegevens die zij zouden verwerken. Als ik dan dat antwoord krijg, reageer ik overeenkomstig. Als ik verkeerde antwoorden krijg, kan ik ook niet goed reageren.

Evengoed een beetje vaag als mensen zomaar persoonsgegevens van anderen in zo'n systeem stoppen. Ik begrijp dat echt niet. Ook niet na de uitleg van verschillende mensen. Ik kan er met mijn verstand niet bij dan iemand (uit luiheid?) een of ander rapport wil laten genereren of management samenvatting en dan ijskoud échte gegevens als bron aanlevert. Dan zit er toch echt een steekje bij je los. En als je dan vervolgens dat systeem de eis gaat opleggen dat ze voorzichtig met die privédata om moeten gaan, snap je helemaal niets van de wereld. Ik zit al een jaar of 30 in de IT en zo'n beetje vanaf de jaren '90 op internet en daarvoor op andere netwerken en ik ben mij er altijd van bewust geweest dat privacy vooral iets is dat je zelf in de gaten moet houden. Wat je er niet in stopt. komt er ook niet uit.

Dus mensen moeten wat vaker hun eigen intelligentie gebruiken voordat ze op een AI gaan vertrouwen.
Evengoed een beetje vaag als mensen zomaar persoonsgegevens van anderen in zo'n systeem stoppen. Ik begrijp dat echt niet.
Daar zit denk ik het probleem. Dat jij het niet begrijpt en vind dat het niet hoort wil niet zeggen dat het niet gebeurd. Het gebeurd en zelfs op enorme schaal. Niet iedereen denkt rationeel, niet iedereen heeft goede intenties en zeker niet iedereen heeft het vermogen om de gevolgen te overzien. Er zijn mensen die complete prospectlijsten inclusief allerlei persoongegevens uploaden om zo goede marketingteksten terug te krijgen. Het systeem kan alle openbare bronnen scannen en vastleggen. DIe zijn op zichzelf wellicht niet interessant, maar leveren gecombineerd een schat aan informatie op. Die ook misbruikt kan worden.
Dus mensen moeten wat vaker hun eigen intelligentie gebruiken voordat ze op een AI gaan vertrouwen.
Tja... Welkom in de moderne wereld.
Je kan je gegevens ook in een filmpje zetten op YouTube. Dan gaat youtube ook niet uit.

Volgens mij hoeven we de incompetentie van Italiaanse bedrijven niet leidend te laten zijn voor onze omgang met gegevens.

En verder ben ik blij dat ze hiermee hun eigen industrie de pas afsnijden, dat is beter voor Nederlandse softwarebedrijven. Tenzij ze straks via de politiek hun ideeën aan iedereen opleggen, dan zijn de VS en China de lachende derden.
Als je een filmphe opbyoutube zet geef je expliciet toestemming en geef je aan de eigenaar te zijn. De argumentatie is waarschijnlijk dat ChatGPT is getraint met internet data zonder dat daar toestemming voor is verleend. Misschien de moeite om eens een SAR of DDR request naar chatgpt te sturen. Lijkt me lastig als er persoonlijke dat in het model is opgenomen.

Het blijft een beetje gissen, wat vreemd is omdat het verboden is zonder duidelijke omschrijving als ik het nieuwsbericht goed lees.
Nee, je bent niet raar, maar ...
Met iedere vraag die je stelt of iedere opdracht die je geeft komt het systeem feitelijk meer over je te weten.
Beetje identiek aan de duimpjes op facebook.
Ik kan me het wantrouwen dus best voorstellen.
De belangrijke vraag is; "wat kun je er aan doen?"
Ik denk weinig, je houdt deze ontwikkelingen niet tegen.
De overheden die dit proberen hebben voor wat betreft het gebruik van informatie vaak een enorme berg boter op hun hoofd.
Ja, dat lijkt mij duidelijk. Als ik een duimpje geef op Youtube geef ik ook interesse in dat onderwerp aan. Dat snapt een kind nog wel. Maar ook als het zo is dat bedrijven allerlei gegevens laten checken, zoals @robertlinke en @ajbs aangeven, begrijp ik niet dat overheden willen ingrijpen. Net als mensen die van alles over hun privéleven op Facebook zetten en dan achteraf gaan klagen dat Meta en Google alles van hen weten... Tsja...dan moet je ze dat niet vertellen. Als je op je Android foon van alles aan zet, moet je het niet raar vinden dat Google weet waar je wanneer geweest bent. Maar dat wist je telefoonmaatschappij ook wel. Daar over gaan zeuren heeft imho geen nut. En als je niet wilt dat Google weet dat je een nieuwe buttplug zoekt, moet je dat vooral niet zomaar intypen in de zoekmachine. Probeer het dan in een anonieme browser, maar ook dat vertrouw ik ook niet zo eigenlijk. Er zijn meer manieren om eea aan jou te koppelen.

Het blijkt maar weer dat overheden weinig kaas gegeten hebben van ICT. Nou geldt dat ook voor het gros van de mensen momenteel zit dat AI in een enorme hypetrain. Iedereen lijkt te denken dat ChatGPT alles weet en alles kan. Nou is ie best 'slim' maar veel zaken googled ie ook gewoon bij elkaar en maakt daarbij ook nog wel eens een foutje. Je moet het puur zien als een hulpmiddel en niet als alomvattende eindoplossing.
Het echte probleem is dat elke AI gegevens moet opslaan om op z'n minst iets te leren. De uiteindelijke bedoeling is dat het wel de alomvattende eindoplossing wordt, slimmer dan wij mensen.
Je kunt stellen dat je geen gegevens over jezelf moet invoeren, maar een overheid kan en moet wel bepalen of een bedrijf zich aan de wet houdt. Als er privé gegevens worden opgeslagen, alleen om AI iets te leren, dan is dit tegen de wet. Ze mogen dus pas weer terugkomen als er geen privé gegevens worden opgeslagen.
De uiteindelijke bedoeling is dat het wel de alomvattende eindoplossing wordt, slimmer dan wij mensen.
Dat is misschien het einddoel, maar dat is nog ver weg. Steeds met nieuwe ontwikkelingen rondom AI merken we dat het best ingewikkeld is wat wij 'gewoon' met onze hersenen doen. AI is voorlopig nog het beste op afgebakende deelgebieden. Dan staat de context vast en dat scheelt al een hoop ellende. AI blijft nog altijd een domme computer die geen idee heeft van waar ie mee bezig is. Dat merk je als ie de fout in gaat. Dan maakt ie fouten die een mens nooit zou maken.
Twaalf jaar geleden was IBM's Watson al heel erg goed in het spelletje Jeopardy. Ook toen was ie erg goed in het analyseren van de vraag, en het leggen van verbanden naar een mogelijk antwoord, dat ie binnen 3 seconden produceerde. Bijzonder indrukwekkend. Nu is ChatGPT heel erg goed in natuurlijke taal begrijpen en kan ie ook een coherent verhaal maken uit de (bij elkaar geoogelde?) resultaten. Maar nog steeds maakt ie fouten. Ik denk dat het (voorlopig) beter is dat ze 'm bijvoorbeeld allerlei juridische of medische informatie voeren en daarmee een expersysteem maken die je in normale taal vragen kunt stellen over een ziektebeeld of een juridische kwestie.

Voor een algemeen Orakel dat alles van alles weet is het denk ik nog veel te vroeg.
Zoiets als één gek kan meer vragen dan 100 wijzen kunnen beantwoorden. :) :)
Zelfs als je al jouw gesprekken en gehele geschiedenis verwijderd kan het zijn dat de data nog steeds in het systeem zit. Doordat deze data gebruikt mag worden om het model te trainen en dus 'ergens' in de black box kan zijn opgeslagen. Het lijkt er soms op dat iedereen deze tool maar voor van alles en nog wat inzet, waarbij er totaal niet wordt stil gestaan wat ze delen en hiermee onbedoeld gevoelige informatie doorgeven en in het publieke domein brengen.
Precies. Afbakening van data en beschermen van data tegen toegang door onbevoegden kun je hierdoor niet garanderen; wat betekent dat je de tool per definitie al niet mag gebruiken voor het verwerken van persoonsgegevens.

Daarnaast is de enige manier om het recht op vergetelheid te implementeren met garantie dat de gegevens ook echt verdwenen zijn, om het complete getrainde model van ChatGPT te vernietigen en vanaf de nullijn alles opnieuw in te gaan leren.
(Oh ja! Laat dat alsjeblieft wettelijk afgedwongen worden! Dan houdt deze idiote hype om alles in één groot publiekelijk gedeeld, privaat beheerd leer-model onder te brengen misschien eens op.)
Wat mensen niet schijnen te weten is dat dat trainen alleen is ingesteld voor de publieke webversie. Voor de Azure APIs kun je zelf bepalen of het model er mee traint of niet.

Maar we hebben het hier voornamelijk over nitwits, niet over professionele partijen die snappen wat een API is.
Lijkt een beetje op social media, en vooral de begin dagen daarvan!
Mensen doen er van alles mee en hebben niet door welke gevolgen wat ze doen kunnen hebben.

Kun je je voorstellen hoe de wereld er uitgezien zou hebben als alle social media toen der tijd ook verboden zou zijn?
Kun je je voorstellen hoe de wereld er uitgezien zou hebben als alle social media toen der tijd ook verboden zou zijn?
Ja. Heerlijk.
Grote kans dat Trump dan bijvoorbeeld geen president was geweest.
Dotan had geen trollenleger gehad.

Het verbod op Tik Tok hier en daar past hier toch ook gewoon bij?
Mensen denken te simpel over alle complicaties. Het gaat niet alleen om privacy, maar ook om veiligheid en over afhankelijkheid..
AuteurTijsZonderH Nieuwscoördinator @joost007196 april 2023 20:30
Belachelijk dat overheden bepalen
Privacytoezichthouders zijn onafhankelijk van de overheid. De Italiaanse overheid zelf heeft al gezegd dat ze het een overdreven reactie vinden, maar daar kun je weinig aan doen als je toezichthouder onafhankelijk is.
Dat is een beetje het probleem met deze "organisaties", ze zijn namelijk in geen geval onafhankelijk. Ze worden door de overheid aangesteld. Maar de regering kan nu makkelijk zeggen "zij bepalen, niet wij" en zo de schuld afschuiven.
Anoniem: 85014 @ShadLink6 april 2023 21:43
Wie anders dan de overheid zou dan de aanstelling moeten doen?
Tja, dat is en blijft een moeilijk punt. En ook een reden waarom "trias politica" bestaat. De regelgevende macht, de controlerende macht en de gerechtelijke macht moet gescheiden zijn. Maar bij organisaties als de privacy-autoriteiten zie je dat er een overlap is van minimaal 2 van deze "machten".

In principe zouden zulke organisaties door de burger gekozen moeten worden, zoals we bv met de waterschappen doen in Nederland.
De waterschappen? Ooit gehoord van geborgde zetels?
Ik vind dit eigenlijk een goed idee: dat een privacytoezichthouder aangesteld wordt zoals de geborgde zetels van waterschappen.

Kan je daar als Nederland werk van maken zodat het in de rest van de EU als voorbeeld genomen zal worden?
Dat hoeft toch niet? De privacywaakhond is uitsluitend gerechtelijk.
Probleem is dat ze niet alleen aangesteld worden door de overheid, maar in Belgie hier misbruikt worden door de partijen om er wat volk geld te laten binnenhalen voor zichzelf.

Uiteindelijk wordt de politie en rechters ook niet rechtstreeks aangesteld door de overheid.

Een oplossing zou zijn dat ze die manier volgen en niet gewoon er volk kunnen neerzetten om postjes te pakken.
De regering kan alleen maar zeggen "zij bepalen, niet wij" als en alleen als die toezichthouder onafhankelijk is. Als een toezichthouder niet onafhankelijk is en een regering roep "zij bepalen, niet wij" dan is zo'n regering geen knip voor de neus waard, ze weet zelf niet wat ze doet en zegt.

Besef dat we in dit specifieke geval praten over een toezichthouder, niet over een uitvoeringsinstantie. In dat laatste geval wordt inderdaad wel met een zekere regelmaat geroepen "zijn bepalen, niet wij" (en ook in dat geval is het in vrijwel alle gevallen niet waar ;) )
Beetje overtrokken reactie misschien? Overheden (of toezichthouders, e.d.) hebben ook gewoon een taak om burgers te beschermen. Misschien is een verbod op Chatgpt van openai niet de beste keuze, maar er zijn zat middelen waarvan ik blij ben dat er besloten is deze te weren uit de samenleving.
Dat zal ook wel de onderliggende truc zijn. Microsoft heeft veel betaald voor ChatGPT integratie en als iedereen ChatGPT nog steeds massaal buiten Bing om kan gebruiken, dan is er ook geen enkele reden om Bing te gaan gebruiken en valt het business model van Microsoft in elkaar.

Het is geen geheim dat de grote tech giganten invloed hebben op de beleidsmakers van de wereld. Dus door ChatGPT landelijk te verbieden en het alleen nog mogelijk te maken via Bing zal het business model wel rendabel zijn.

Mocht het verbod er komen, dan kan je het altijd nog lokaal op je PC installeren.
Als je een pc hebt met een paar honderd gigabytes vram, zou je het wellicht lokaal kunnen installeren.
Het kan verborgen gebruikt worden voor het profileren van personen op maatschappelijk onanvaardbare kenmerken.
Ik gebruik het vaak als een consultant wel handig.
maar om dat te verbieden is wel maf.
Hoezo? ChatGPT verwerkt en bewaard (mogelijk privacygevoelige) data, waaronder de prompts, de antwoorden en andere (persoonlijke/medische/bedrijfs) gegevens die je aan het systeem verstrekt. Zelfs wanneer je opgeslagen gesprekken verwijdert, is het mogelijk dat OpenAI deze gegevens reeds heeft gebruik om zijn AI-modellen te verbeteren en dus nog ergens in 'zijn geheugen heeft staan'.

Krijg het idee dat gebruikers van deze tools het voor van alles en nog wat gebruiken zonder er echt bij stil te staan wat en hoeveel data ze (onbewust) delen, welke risico's hier aan kleven, wat de klant of eigen organisatie hier van vind en of de inzet geen (contractuele) afspraken schend, bedrijfsgeheimen prijs geeft of inbreuk maakt op iemands privacy.

Zoals o.a. reeds bij Samsung gebeurd is.
It appears that like the rest of the world, Samsung is impressed by ChatGPT but the Korean hardware giant trusted the chatbot with much more important information than the average user and has now been burned three times.

[...]

One of the leaks reportedly concerns an employee asking ChatGPT to optimize test sequences for identifying faults in chips, an important process for a firm like Samsung that could yield major savings for manufacturers and consumers. Now, OpenAI is sitting on a heap of Samsung’s confidential information — did we mention OpenAI is partnered with Microsoft?
https://www.tomsguide.com...ts-to-chatgpt-three-times

[Reactie gewijzigd door jdh009 op 22 juli 2024 19:47]

Lijkt mij toch een taak van de gebruiker om geen privacy gevoelige data te delen. Met Office 365 deel je ook alles, zet je alles in de cloud en benader je waar dan ook ter wereld. En dat is dan geen probleem?

Misschien is internet wel een probleem…

Moet er niet aan denken om weer zonder AI te moeten gaan werken, gaat niet gebeuren
Als je Office 365 gebruikt, al je data op Apple's servers parkeert of dingen op Dropbox oid zet moet je ze genoeg vertrouwen om aan te nemen dat ze niet in je data gaan zitten kijken. Maar in theorie gebruiken ze niet je data om software te trainen. Bij ChatGPT is dat wel het geval (voor zover ik begrijp).

Stel, je vraagt ChatGPT om een artikel te schrijven over het front in Ukraine zonder te noemen dat eenheid A op locatie X,Y zit. In Rusland vraagt iemand vervolgens aan ChatGPT waar eenheid A zit, en tenzij daar bescherming voor is ingebouwd zouden ze in theorie dan als antwoord kunnen krijgen dat dit op locatie X,Y is. Dat maakt het gevaarlijk. Als je bedrjifsgeheimen in voert om een artikel te schrijven en de concurrent die informatie over je zoekt krijgt gewoon die geheimen te zien dan heb je natuurlijk een probleem. Als een arts een artikel wil schrijven en ChatGPT de opdracht geeft alle persoonsgegevens te verwijderen uit een document vol patientdata dan zit daarna die patientdata mogelijk nog wel in de dataset die ChatGPT bewaart en kan gebruiken voor andere antwoorden. Wat tegen privacy wetgeving in gaat.

Klopt dat? Geen idee, maar dat is waar een heleboel mensen bang voor zijn, en tenzij het bedrijf achter ChatGPT kan bewijzen dat het niet zo is naar degenen die beslissen over dit soort dingen zullen er landen zijn die het blokkeren. Als ze niet het tegendeel kunnen bewijzen of juist toegeven dat het zo werkt dan heb je kans dat er veel meer landen het zullen blokkeren.
Alle voorbeelden die je hier noemt, zijn ook op Facebook en andere social media terug te vinden. Waarom is dat geen probleem, maar zijn exact dezelfde namen van patiënten in ChatGPT ineens wel een probleem? Wanneer een arts er voor kiest om die data te delen, dan is dat de (foute) keuze van die arts. Niet van het medium waar de data wordt gedumpt. Of wil je de ouderwetse papieren krant ook maar gaan verbieden? Ook daar kom je data tegen die de AVG overtreedt.
Alle voorbeelden die je hier noemt, zijn ook op Facebook en andere social media terug te vinden. Waarom is dat geen probleem, ...
Wie zegt dat dat geen probleem is?
Wanneer een arts er voor kiest om die data te delen, dan is dat de (foute) keuze van die arts.
Misschien, misschien niet. Maar als de data met een goede reden is gedeeld is dat nog geen vrijbrief voor een ieder ander om diezelfde data te gebruiken voor andere doeleinden.
Of wil je de ouderwetse papieren krant ook maar gaan verbieden?
Alleen als die simpelweg zonder toestemming overschrijft wat al in andere kranten staat :)
[...]

Wie zegt dat dat geen probleem is?
Facebook en andere media zijn nog steeds niet verboden, ondanks dat hun gebruikers op grote schaal data via deze media data delen die ze niet zouden mogen delen. En dat is niet de fout van Facebook, maar van die gebruikers. Dus exact hetzelfde als ChatGPT, waar dit artikel over gaat.
Misschien, misschien niet. Maar als de data met een goede reden is gedeeld is dat nog geen vrijbrief voor een ieder ander om diezelfde data te gebruiken voor andere doeleinden.
Onmogelijk dat hier een goede reden voor kan bestaan, want de eigenaar van de data heeft er geen toestemming voor gegeven. Wanneer een arts zonder toestemming privacy gevoelige data, zoals in de wet beschreven, deelt met een ander zonder dat hij of zij daar toestemming voor heeft, is hij/zij in overtreding. En dan maakt het echt niet uit of dat dan via ChatGPT, Facebook of een stuk papier is gedaan. Zonder toestemming delen, is verboden.

En dat is waarom ik de krant noemde, wanneer de krant privacy gevoelige data gaat publiceren, zijn ze in overtreding. Het medium maakt niet uit, papier of internet, voor de wet maakt het niet uit.
Gaat erom waar de data opgeslagen wordt. Het is vooral een probleem als data van EU gebruikers in de VS opgeslagen wordt.

Daarom werken bepaalde functies van Meta ook niet in de EU momenteel.

[Reactie gewijzigd door Atmosfeer op 22 juli 2024 19:47]

Facebook en andere media zijn nog steeds niet verboden, ondanks dat hun gebruikers op grote schaal data via deze media data delen die ze niet zouden mogen delen. En dat is niet de fout van Facebook, maar van die gebruikers. Dus exact hetzelfde als ChatGPT, waar dit artikel over gaat.
Dit is niet exact hetzelfde. Dat mensen via sociale media data delen die ze eigenlijk miet mogen delen is een maar wat ChatGTP doet is die data gebruiken. In tegenstelling tot sociale media, behalve als ze die data zonder toestemming gebruiken voor het aanmaken van een profiel voor reclame. En als ik het me goed herinner zijn voor die activiteit zijn al diverse sociale media veroordeeld.
En dan maakt het echt niet uit of dat dan via ChatGPT, Facebook of een stuk papier is gedaan. Zonder toestemming delen, is verboden.
Mee eens, maar het punt is, wel of geen toestemming om de delen, ChatGTP heeft geen toestemming om die data te gebruiken.
Ze hebben wel toestemming om jouw data te gebruiken voor toekomstig gebruik, zie de overeenkomst waar je mee akkoord bent gegaan. Staat er gewoon in, niks geheimzinnigs
ChatGTP heeft misschien wel toestemming om de data het heeft verzameld te hergebruiken maar het punt is die verzamelde data (deels) via social media komt en daar hebben de oorspronkelijke posters geen toestemming aan ChatGTP gegeven om die data te gebruiken.
Dan ligt er bij ChatGPT een taak om heel groot aan te geven dat alle informatie die je in de bot stopt voor eeuwig bewaard wordt en kan worden gebruikt in prompts van andere gebruikers. Toch? Het is zulke nieuwe techniek dag mensen niet stilstaan bij de privacykant maar denken. Dat is makkelijk!
Ben jij blij als de huisarts de aantekeningen over jouw consult in ChatGPT knalt om er een coherent verhaal van te maken?
ChatGPT werkt via internet, net zoals Facebook. Delen van informatie via openbare netwerken is niet nieuw, het enige wat nieuw is, is de toepassing ChatGPT. Wanneer mijn arts niet snapt dat het een slecht plan is informatie te delen via internet, wordt het hoogste tijd om daar aangifte van te doen. Internet is zeker 20 jaar gemeengoed en de laatste 10 jaar wordt het overal voor gebruikt. Er is ook wetgeving rondom het delen van privacy gevoelige informatie, etc. Kortom, niks nieuws onder de zon dat je geen gevoelige informatie mag delen
Dan ligt er bij ChatGPT een taak om heel groot aan te geven dat alle informatie die je in de bot stopt voor eeuwig bewaard wordt en kan worden gebruikt in prompts van andere gebruikers.
Persoonsgegevens voor eeuwig bewaren is specifiek verboden in de GDPR. Ook als je het heel groot aangeeft.
Je hebt het recht vergeten te worden, je hebt het recht op te vragen welke data een bedrijf over je heeft. Je hebt het recht die data te laten verwijderen. (tenzij een andere wet dat verhinderd) Je hebt het recht die data te corrigeren als er fouten in staan.
Een bedrijf is verplicht die dingen te regelen, maar die dingen zijn in geen enkele AI geregeld en waarschijnlijk weet zelfs niemand hoe je dat zou moeten regelen. Want elke data van je zit nog in de AI als die eenmaal getraind is met jouw data? Hoe identificeer je dat?
Moet er niet aan denken om weer zonder AI te moeten gaan werken, gaat niet gebeuren
Het lijkt mij dat je daar als tweaker wel een mouw aan zult kunnen passen:
OpenAI, de ontwikkelaar van ChatGPT, maakte de tool vanaf toen op dns-niveau per direct onbereikbaar.
;)
Hoezo? ChatGPT verwerkt en bewaard (mogelijk privacygevoelige) data, waaronder de prompts, de antwoorden en andere (persoonlijke/medische/bedrijfs) gegevens die je aan het systeem verstrekt. Zelfs wanneer je opgeslagen gesprekken verwijdert, is het mogelijk dat OpenAI deze gegevens reeds heeft gebruik om zijn AI-modellen te verbeteren en dus nog ergens in 'zijn geheugen heeft staan'.
Maar waarom specifiek achter ChatGPT aangaan? Alsof dit niet al gebeurd met doodnormale search engines zoals Google.
Volgens mij valt dit gewoon binnen het takenpakket van een Europese privacytoezichthouder om bedrijven te onderzoeken en te bestraffen wanneer ze de wet overtreden of hier vermoedens van zijn. Ik vind het een goed initiatief dat er steeds meer aandacht wordt besteed aan de bescherming van persoonlijke gegevens en privacy, en dat bedrijven die zich niet aan de regels houden, steeds zwaarder bestraft worden. Daarnaast, een hele rits aan boetes opgelegd aan bedrijven zoals Google en Meta laat zien dat deze echt niet buiten schot blijven als het gaat om privacyzaken. Al zou het persoonlijk nog wel wat strenger en zwaarder mogen en regelgeving aangescherpt, zeker op het gebied van dataopslag/-uitwisseling met landen/organisatie buiten de EU.

Het is belangrijk dat privacyorganisaties ook specifiek kijken naar ChatGPT, omdat het een voorbeeld is van een AI-systeem dat mogelijk privacygevoelige informatie verwerkt en bewaart. Het is belangrijk dat we ons bewust zijn van de manier waarop onze gegevens worden gebruikt en beschermd, en dat er transparantie en verantwoordelijkheid is bij bedrijven die deze gegevens verwerken.

Bovendien kan onderzoek naar de privacy-implicaties van ChatGPT en soortgelijke AI-systemen helpen om de ontwikkeling van toekomstige AI-technologieën te verbeteren en ervoor te zorgen dat privacy- en gegevensbescherming in acht worden genomen. Het is belangrijk dat we proactief zijn in het aanpakken van deze kwesties en ervoor zorgen dat er passende maatregelen worden genomen om de privacy van gebruikers te beschermen.

[Reactie gewijzigd door jdh009 op 22 juli 2024 19:47]

Krijg het idee dat gebruikers van deze tools het voor van alles en nog wat gebruiken zonder er echt bij stil te staan wat en hoeveel data ze (onbewust) delen, welke risico's hier aan kleven, wat de klant of eigen organisatie hier van vind en of de inzet geen (contractuele) afspraken schend, bedrijfsgeheimen prijs geeft of inbreuk maakt op iemands privacy.

Nou, zo wordt het internet al 20 jaar gebruikt, dus dat aanhalen als een argument lijkt me geen steek te houden.
Allerhande bedrijfsgeheimen is één, dat is vooral een probleem voor de eigenaar ervan. Wat gebeurt er als ik een leger mensen inhuur om het met ChatGPT te hebben over jouw crimineel verleden dat ik verzonnen heb? Gaat ChatGPT die verzinsels dan als waarheid aan anderen verkondigen? Is dat duidelijk? Wie is verantwoordelijk voor schade die dat berokkent? Wat kan men doen en wat doet men om dat te voorkomen? Zo lang die dingen niet duidelijk zijn, is er wat mij betreft geen plaats voor een ChatGPT die 'alles weet'.
Dat staat los van het gebruik van deze technologie in beperktere context, zoals bijvoorbeeld software development, juridische toepassingen... waar die problemen veel minder spelen (wat niet wil zeggen dat een bias bij juridische toepassingen bijvoorbeeld ook geen groot probleem kan zijn).
Wat gebeurt er als ik een leger mensen inhuur om het met ChatGPT te hebben over jouw crimineel verleden dat ik verzonnen heb? Gaat ChatGPT die verzinsels dan als waarheid aan anderen verkondigen?
Wat gebeurt er als je websites maakt over jouw crimineel verleden en deze via SEO bovenaan Google krijgt?
Dan klaag je de website auteur aan voor "laster".
Hoe doe je dat bij een AI?

Heeft de AI maker een tool om achteraf vast te stellen wie de laster in de AI heeft gestopt?
Heeft de AI maker een tool om die laster volledig uit de AI te verwijderen?
Een AI kan liegen ongeacht de inputdata. Daarom staat er een waarschuwing bij dat je de output niet te veel mag vertrouwen.
Ook dat ja. Maar dat maakt de boel alleen maar erger.

We vinden laster niet acceptabel. Daarom hebben we er een wetsartikel voor gemaakt, zodat er maatregelen genomen kunnen worden door iemand die laster verspreid.

Dan kunnen we het toch niet acceptabel vinden dat het via AI wel mag, omdat het te lastig is om maatregelen te nemen?
Er zijn toch regelmatig rechtszaken over boeken/artikels die expliciet stellen dat het om een (fictief) verhaal gaat maar waar iemand vindt dat het toch te duidelijk over hem of haar gaat en het gebeurt ook regelmatig dat die persoon gelijk krijgt en dat de auteur door de rechter teruggefloten wordt. Het zou mooi worden als je om het even welke laster mag verkondigen als je op voorhand maar zegt dat niet alles wat je vertelt even serieus genomen moet worden.
Er zijn uiteraard ook nog andere voorbeelden waarbij laster in de praktijk niet of moeilijk aangepakt kan worden, maar dat wil nog niet zeggen dat daarom de deur volledig opengezet moet worden.

[Reactie gewijzigd door indigo79 op 22 juli 2024 19:47]

Wat gebeurt er als ik een leger mensen inhuur om het met ChatGPT te hebben over jouw crimineel verleden dat ik verzonnen heb?
Rusland heeft complete trollenlegers in dienst die niets anders doen. Maar dan op Facebook en andere social media. Hele volksstammen gaan er van uit dat alles wat op internet staat, ook de waarheid is.
Gaat ChatGPT die verzinsels dan als waarheid aan anderen verkondigen? Is dat duidelijk?
ChatGPT claimt nergens dat het de waarheid verkondigt. Sterker nog, dit staat er bij mij op het scherm:
ChatGPT may produce inaccurate information about people, places, or facts
Wie is verantwoordelijk voor schade die dat berokkent? Wat kan men doen en wat doet men om dat te voorkomen? Zo lang die dingen niet duidelijk zijn, is er wat mij betreft geen plaats voor een ChatGPT die 'alles weet'.
ChatGPT stelt zelf dat het onjuiste informatie kan produceren. Dan is het aan jou om de resultaten te controleren. Jouw verantwoordelijkheid.

ChatGPT heeft het niveau van een junior medewerker. Zou jij een junior eindverantwoordelijk maken in jouw bedrijf/organisatie? Nee, natuurlijk niet.
ChatGPT stelt zelf dat het onjuiste informatie kan produceren. Dan is het aan jou om de resultaten te controleren. Jouw verantwoordelijkheid
Absoluut niet!

Als jij onjuiste informatie produceert die iemand schaadt, dan hebben we daar wetsartikelen voor.
Jij bent dan schuldig aan smaad of laster.

Het kan natuurlijk niet zo zijn dat je vrijblijvend smaad of laster kunt plegen als je het via een AI doet.
Volgens mij zijn we het helemaal met elkaar eens:

>> Jouw verantwoordelijkheid.
en
>> Jij bent dan schuldig aan smaad of laster.

Volgens mij bedoelen we hetzelfde.

Dat je software gebruikt om content te genereren, dat is irrelevant.
Maar wie ga je aanklagen als iemand smaad of laster in de AI stopt, maar jij niet terug kunt vinden wie die smaad of laster in de AI heeft gestopt?
Iemand initieert ChatGPT om een artikel aan te maken. Wanneer het resultaat smaad of laster betreft, ben je als initiator er voor verantwoordelijk. Het is de keuze van de initiator om het resultaat wel of niet te publiceren, de wet wel of niet te overtreden.

Mijn auto kan ook 250km/h, wie ga je aanklagen wanneer ik in Nederland met 250kmh over de openbare weg rij? De fabrikant of de bestuurder? Daarnaast kan mijn auto heel goed een verkeerslicht negeren, rijdt gewoon door rood wanneer ik niet rem. Fout van de fabrikant? Of zit ik niet op te letten?

Daarnaast zal OpenAI wel wat mogelijkheden hebben om te achterhalen waar bepaalde content vandaan komt. Dat kan Facebook tenslotte ook.

ChatGPT is "maar" software, de verantwoordelijke zit achter het keyboard.
Neem bijvoorbeeld dit artikel: ChatGPT under fire after accusing innocent professor of sexual harassment.
Wie is er verantwoordelijk als ChatGPT dergelijke onzin uitkraamt? Als een persoon dat op een website zet (of op een andere manier publiceert) is dat duidelijk (ook als die in of ander land zit waar onze justitie er niet aan kan, blijft die persoon in principe aansprakelijk).
Een ieder kan toch voor zichzelf bepalen of ze hun data willen doorgeven aan ChatGPT? Dat hoeft de overheid niet voor mij te verbieden.
Ja en nee😉 wanneer ze niet duidelijk zijn over hoe ze met privacy gevoelige data omgaan, je niet kan opvragen wat ze over je hebben en deze data niet meer kan verzoeken te verwijderen, dan mogen ze inderdaad de dienst niet aanbieden aangezien dat tegen de AVG ingaat.
Op het moment dat ze aan alle AVG richtlijnen voldoen... Dan mogen ze de dienst aanbieden en mag jij na een expliciete OK, al je geheimen daar dumpen 😉
Krijg het idee dat gebruikers van deze tools het voor van alles en nog wat gebruiken zonder er echt bij stil te staan wat en hoeveel data ze (onbewust) delen, welke risico's hier aan kleven, wat de klant of eigen organisatie hier van vind en of de inzet geen (contractuele) afspraken schend, bedrijfsgeheimen prijs geeft of inbreuk maakt op iemands privacy.
Dat is bij "normale" internet zoekmachines toch niet anders?

Hele volksstammen gooien al hun hebben en houden in de zoekmachine van Google, en die gebruikt die data gewoon. Onder het eufemisme van "zoekresultaten personaliseren" terwijl het keihard bubbelen en profileren is.
nee jij kunt gewoon een website hebben die niet door google geindexeerd wordt
Hij doelde op wat mensen invoeren in het zoekveld.
Als ik iets aan iemand vertel dan verwerkt deze persoon ook mijn gegevens, en niet versleuteld en inclusief C3 &C4 data en wordt deze ook niet, na 7 jaar verwijderd. Dan wordt het model van deze persoon waarin ik het vertel ook weer verbeterd.

Als het gaat om het trainen van het model, en dat deze het niet weer kan op ratelen met naam en toenaam lijkt mij dat prima?
Tevens maakt ChatGPT geen spelfouten.
Ik ben voorstander van innoveren en tegen klakkeloos verbieden, maar de ontwikkelingen rondom AI gaan nu zo hard, lijkt mij goed om ook even stil te staan bij de consequenties. Een verbod gaat wel ver en lijkt mij niet af te kaderen als het om AI gaat. Ik denk verder dat elke techneut en voorstander van innovatie inmiddels ook een keerzijde ziet. Buiten dat is het natuurlijk prachtige technologie die veel mogelijkheden geeft, mits we er op de juiste manier mee om gaan.
Volgens mij gaat het helemaal deze ‘zo hard’ deze modellen bestaan al lang, Chat GPT is alleen het eerste grote succes. Nu verdergaan en zeker niet stilstaan. We hebben meer concurrentie nodig op deze markt.
Door de kop van het bericht te lezen doet het overkomen op mij dat genoemde landen willen kijken OF ze het in hun land kunnen gaan verbieden. Of lees ik het nou echt zo verkeerd?
Er zitten twee kanten aan het verhaal.
ChatGPT is niet helemaal duidelijk over welke data ze hebben gebruikt om het taalmodel te trainen. Van een deel van de data die is gebruikt was mogelijk toestemming nodig van de betreffende personen.
Volgens ChatGPT is er alleen openbare data gebruikt, waaronder posts op allerhande fora (welke is dus niet duidelijk).
Die fora-posts worden door de Italiaanse Privacy Waakhond als persoonlijke gegevens (mening) gezien, die onder de privacy wet valt. Voor gebruik van die data moet dan dus vooraf toestemming worden gegeven.
Het is echter niet duidelijk of je het openbaar geplaatste post op een publiekelijk toegankelijk forum (zoals Tweakers) wel privacy gevoelige data is. Men heeft er immers zelf voor gekozen dat iedereen (inclusief alle bedrijven) die posts kunnen lezen. De definitie van "privacy gevoelige data" is in de AVG vastgelegd en beslissingen hieromtrent vormen jurisprudentie voor alle deelnemende landen. Een uitspraak van een rechter in een van de bovengenoemde landen kan dus gevolgen hebben voor het verbod in Italië.

Als het al om privacy gevoelige data gaat, dan is het de vraag of men ChatGPT wel kan verbieden. De data zelf wordt niet doorverkocht (dan was het duidelijk geweest). De data is verwerkt en in het uiteindelijke product is absoluut niets meer van de bronnen terug te vinden. Het is afhankelijk van de wetgeving van de individuele landen wat men als toepasselijke straf kan uitdelen.
Het is zelfs zo dat een post niet alleen een mening is, maar dat je er zelfs auteursrechten over hebt. Dus die mag chat-gpt volgens de Italiaanse privacy waakhond daardoor niet zomaar gebruiken.
Wat een zwakte bod, een mening uit je in het openbaar dan moet je niet zeuren dat er iemand luistert ga dan maar lekker in een grot in de woestijn wonen
Als ik alle reacties onder dit artikel lees en op basis daarvan zelf een mening vorm en die hier post, is dit gelukkig geen schending van auteursrechten.

Wat is dan het verschil met "Schrijf een reactie die past binnen volgende forumdiscussie: <paste thread>"
@tunnelforce1
Ik heb de regel niet niet bedacht he. En je reactie is een beetje...tja wat zou ik zeggen.

Maar het gaat erom dat een stuk tekst door iemand geschreven, ook al is het openbaar op welke manier dan ook, dit niet een op een overgenomen mag worden. Dat is hetzelfde als een foto, tekening, wat dan ook. Als jij die maakt, ben jij de auteur, en mag dat niet zomaar gebruikt worden.
Online wordt dat toch heel veel gedaan, maar juridisch is dit niet toegestaan.

Als fotograaf heb ik daar ook last van, bedrijven jatten gewoon foto's bij het leven, als ik erachter kom kan ik gelukkig vrij makkelijk een goed bedrag claimen, omdat ze dit dondersgoed weten. Mailtje met dikke factuur en ze betalen eigenlijk altijd, omdat ze weten dat als ik het aan zou vechten ze dit verliezen en de kosten nog vele malen hoger zijn.

Dus het komt er op neer, dat als ik een stuk tekst wat jij zelf geschreven hebt, ook al is het online, even copy/paste, zonder bronvermelding of toestemming, en evt net doe of ik dit zelf geschreven heb, dat dit niet is toegestaan. Want jij bent de auteur. Dat dit veel gebeurd in de online wereld, en dat jou onderbuik gevoel is dat dit gewoon mag, is een ander verhaal. Maar juridisch ga je dit niet winnen als iemand je aanklaagt als jij een stuk tekst hergebruikt zonder toestemming of bronvermelding.

Je mag het uiteraard wel in je eigen woorden omvormen op basis van andere meningen die je gelezen hebt zoals @ejabberd zegt. Dat is een ander verhaal, en hier wordt het juridisch ingewikkeld als je een paar stukken van een tekst van een ander aanpast.

Hoe Chat-GPT dit doet is natuurlijk een soort tussenvorm van die 2, dus de vraag is hoe dit juridisch stand gaat houden. Maar dit is wel waar dit verbod op rust momenteel.
Het rust niet alleen op auteursrecht, want is geen onderdeel van de GDPR.
Het rust voornamelijk op privacy recht.

Persoonsgegevens mag je niet gebruiken voor een ander doel dan waarvoor deze zijn verzameld of geleverd.
Als iemand hier vrijwillig publiek zijn mening geeft, dan is dat met het doel deel te nemen aan de discussie en andere te overtuigen.

Het is overduidelijk dat het doel van die persoon niet is om zijn data te leveren aan een AI tool zodat die getraind kan worden en al helemaal niet om zijn data gratis te geven aan een bedrijf dat daar commerciele activiteiten mee gaat doen.

En daarmee is het dus vanuit de GDPR niet toegestaan om zonder voorafgaande toestemming de discussies op tweakers te gebruiken om een AI te trainen.
Google heeft dat ook allemaal in zijn index staan, hoe is dat anders?
Die doen aan bronvermelding.
Ze linken naar de bron, en dat is gewoon toegestaan.
De privacywaakhond gaat niet over auteursrechten. Het is ook niet de belangenorganisatie daarvoor. Op grond daarvan kan ChatGPT niet verboden worden. Dat kan alleen als belanghebbenden, of een organisatie die daarvoor bemiddeld een aanklacht indienen.
Of er auteursrechten op een post liggen is evenmin duidelijk. Het hangt o.a. af van de voorwaarden van de verschillende fora en landelijke wetten en hoe de stukken worden gebruikt.
Een toekomstige belanghebbende, zou wel eens de filmindustrie kunnen zijn. Als AI in staat is om films te maken, zullen Disney en consorten wel opstaan om te laten zien wie de baas is in film/ entertainmentland.
Die zijn wat machtiger dan een "auteur of fotograaf".
De film industrie is nu een gebruiker van AI. In de nieuwe Indiana Jones film hebben ze er bijvoorbeeld veel gebruik van gemaakt om Harrison Ford een jonger uiterlijk mee te geven.
Voor de training van ChatGPT zijn geen filmbeelden gebruikt, dus in het huidige proces is de filmindustrie geen partij.
als openai openbare data gebruikt moeten ze het gebruik van de tool open source maken of de kosten per token heel laag moeten maken. Immers de data zijn door "ons" geplaatst en worden door openai ook niet gecompenseerd...
Wat is het verschil met Google? Deze indexeerde ook fora gesloten en open en verdiend daar klauwen met geld me.
Met bronvermelding/link naar de bron.
Dit is juridisch een heel ander verhaal.

Wat @invic zegt vraag ik me ook af of dit juridisch mag.
Volgens mij mag het alleen met bronvermelding, of toestemming van de 'auteur'.
Het doet er volgens mij niet toe of het open source is, gesloten, gratis of betaald.
Maar dit weet ik niet zeker.

[Reactie gewijzigd door Mud.Starrr op 22 juli 2024 19:47]

Alle EU landen hebben dezelfde wetgeving op gebied van privacy. Het is dus niet zo gek dat landen naar elkaar kijken als er één EU land met een verbod komt.
Ik weet niet waar je die wijsheid vandaan haalt, maar dat klopt niet.
Alle (of althans de meesten) hebben inmiddels de GPDR, maar Duitsland (het land waarvan ik het zeker weet) heeft veel uitgebreidere wetgevingen rondom privacy, dan Nederland. De persoonlijke levenssfeer is in Duitsland bijna heiligen ook het eigen erf/ woning is er veel beter beschermd dan bijvoorbeeld in NL: een rechtstreekse erfenis uit det tijd WOII en de GeStaPo.
Als je op alle slakken zout wil leggen dan heb je gelijk ja.
Er is een minimum wetgeving vanuit Europa, maar landen kunnen zelf verder gaan. Maar dat is in deze discussie totaal niet relevant.

Het gaat hier om een verbod van Italië op basis van de GDPR. En dat minimum geldt voor alle EU landen. Dus als het een overtreding van de GDPR is in Italië dan zou het dat ook moeten zijn in alle andere EU landen.

Je kunt je afvragen of het zinvol is dat de andere autoriteiten allemaal zelf een onderzoek starten, of dat ze het onderzoek van Italië bestuderen en dan overnemen. (wellicht dat de onderzoeken van die andere landen ook niet meer dan dat is)
Ze willen meer weten over wat in Italië is gebeurd. Om zo te bepalen of de privacy wet is overtreden en ze moeten handhaven. Een mogelijkheid is dan ChatGPT verbieden.
Toezichthouders uit sommige EU-landen doen onderzoek, of willen onderzoek doen, naar deze dienstverlening. Door minimaal eens bij de Italiaanse toezichthouder na te vragen hoe die kennelijk wel heel snel tot een conclussie zijn gekomen, met ook nog eens zo'n ingrijpende maatregel van een verbod. Waarbij een mogelijke uitkomst kan zijn dat er onderzoek naar deze dienstverlening nodig is om, dat mogelijk tot een verbod kan leiden. Een toezichthouder hoort onafhankelijk te zijn, daar hoort geen vooringenomen houding bij dat er speciaal gekeken moet worden of het verboden kan worden. Eerder mag je onderzoek verwachten dat ze controleren of het aan de wettelijke eisen voldoet. En stel dat het niet voldoet, dan hoort gekeken te worden wat gepaste handhaving zou zijn. Dat kan dus net zo goed betekenen dat het gelegenheid krijgt om aanpassingen te doen, boete te betalen bij niet voldoen of te lang doen over verbeteren en misschien als uiterste middel een verbod. Vergeet ook niet dat er honderdduizenden andere diensten zijn waar gebruikers en bedrijven massaal of minder massaal persoonsgegevens mee verwerken zonder dat duidelijk is hoe dat precies werkt en voldoet. Dan kan er niet even een vooringenomen houding voor het een zijn om te gaan verbieden en anderen anders behandelen bij onderzoek. Het is al discutabel hoe weinig onderzoek er is, en hoe de maatschappij selectief ergens een mening over heeft en soortgelijke andere zaken negeert.

[Reactie gewijzigd door kodak op 22 juli 2024 19:47]

Heel snel tot een conclusie gekomen?
Ik denk dat dat wel meevalt. De GDPR wetgeving is niet zo complex.
Dat de wijze waarop de data is verzameld waarmee de AI getrand is niet compliant is met de GDPR is nogal duidelijk voor iedereen die ook maar iets van de wet kent.

Net zoals data van linkedin scrapen een inbreuk is op GDPR is dat uiteraard nog meer het geval als je data scraped vanaf heel internet zonder toestemming te vragen.
daar hoort geen vooringenomen houding bij dat er speciaal gekeken moet worden of het verboden kan worden.
Welke vooringenomen houding zie jij dan?
Ze hebben de wet gepakt en daaruit simpel geconcludeerd dat wat de makers van die AIs doen verboden is in de wet.

Ze zijn juist soepel geweest door toekomstige overtredingen te verbieden ipv meteen een hoge boete op te leggen voor de huidige overtredingen.
Dat kan dus net zo goed betekenen dat het gelegenheid krijgt om aanpassingen te doen,
De wet zegt niet: "Je mag je gang gaan zolang we je niet betrappen". En daarna mag je nog steeds je gang gaan totdat je aanpassinen hebt gedaan.
Nee, de wet is duidelijk. Het mag niet en pas nadat je je aanpassingen hebt doorgevoerd en daarmee legaal te werk gaat mag je je product weer verkopen/gebruiken.
Ik ben het met je eens dat een toezichthouder snel van mening kan zijn of ze vooraf wel zijn ingelicht hoe het voldoet aan de wet. Maar dit nieuws lijkt niet alleen daar om te gaan, maar ook om hoe de toezichthouder dit verder gaat onderzoeken na aanleveren van verplichte onderbouwing door het bedrijf.

Het verbod is niet zomaar tijdelijk: de wet geeft namelijk ruimte om persoonsgegevens met een goede onderbouwing te verwerken. De toezichthouders zullen dus bijvoorbeeld interesse hebben in hoe ze in Italië controleren of het voldoet en welke opvattingen ze daar bij hebben. Het kan bijvoorbeeld zijn dat ze het prima vinden hoe het bedrijf voorkomt persoonsgegevens te verwerken.
Heel bijzonder. Lijkt me dat je jezelf dan op 1-0 achter zet tov landen die het niet verbieden.
Weet niet of je met 1-0 achterstaat, er kan ook geestelijke armoede ontstaan? Kunt natuurlijk al je kennis laten afhangen van AI, of dat zo slim is is maar de vraag.
Het is een tool... Van rekenmachines werd hetzelfde gezegd (en ik ben zelf wel blij dat ik nog hoofdrekenen geleerd heb hoor) maar denk je ook dat het een goed plan zou zijn om rekenmachines te verbieden? Of de apps er voor nu dan...
Er zal wel een waarheid in het verbod zitten. Anders zou open ai de tool niet meteen onbereikbaar maken voor Italië.
Ze "moeten" het direct onbereikbaar maken. Dus de gepaste actie is dan ook:
- stap 1: onbereikbaar maken
- stap 2: gesprekken starten

Tot zover ik hoor, hebben ze dat ook gedaan en gebeuren er reeds goede gesprekken tussen de toezichthouder en Open AI.
Het kan evengoed gaan over het niet documenteren van alle noodzakelijke privacy punten en niet zozeer over de tool zelf. Of over de mogelijkheden/eenvoud om jouw gegevens op te vragen of te verwijderen.
Misschien heeft ChatGPT wel gezegd dat de Italiaanse Privacytoezichthouder een stelletje kleuters zijn. Open AI zal dan vast die bron weghalen om het model opnieuw te trainen :-p
Het mag een volledig onwaar en losgeslagen verbod zijn, dan nog moet Openai reageren en de tool onbereikbaar maken.
Zelfde reden waarom Bitcoin verbieden zo lastig is. Net of je het wiel verbiedt....
Inderdaad. AI houd je (helaas) niet tegen, de jobs zijn toch al verloren. Het enige dat we kunnen doen, is faciliteiten aanbieden opdat mensen zich kunnen herscholen en ervoor zorgen dat Europa ditmaal voorop loopt in deze gold rush.

Maar neen: de staat moet zijn geweldmonopolie weer eens laten gelden.

En tegen dat dit alles is uitgeklaard, lopen we twee jaar achter op de rest van de wereld.

[Reactie gewijzigd door Enai op 22 juli 2024 19:47]

Via LinkedIn meegekregen dat er al hoopvolle gesprekken zijn tussen OpenAI en de Italiaanse toezichthouder.
Voeren ze het gesprek wel met de mensen achter OpenAI, of zou ChatGPT het gesprek voeren? :+
Deze verboden geven natuurlijk perfect het echte probleem weer, namelijk volkomen onbekendheid met technologie in welke vorm dan ook bij wetgevers. De ware reden voor een verbod is de hype, niet de realiteit.

Er zijn tientallen vergelijkbare of ergere privacy-vretende monsters waarbij geen enkele overheid op het idee komt die te verbieden. Simpelweg omdat die minder media-aandacht krijgen.

Verbieden van dit soort technologie is volstrekt kansloos, Luddisme in optima forma. Stromend water proberen op te vangen in een vergiet. Tegen de tijd dat de wet er ligt is er een volgend product met een nog grotere uitdaging. Met een vlag voor een auto uitlopen, meer is het niet.
Deze verboden geven inderdaad perfect het echte probleem weer.
Namelijk volkomen onbekendheid met privacy wetgeving bij de makers van AI software en bij de reaguurders op tweakers.

Negeren van nieuwe technologie die onze privacy schendt is volstrekt kansloos.
Tegen de tijd dat de wet er ligt
De GDPR wet is al sinds 2018 actief.
Ja lekker effectieve wet die GPDR. Je onderschrijft perfect mijn verhaal.
Ik vindt het een goed idee, AI gaat veel te snel en we begrijpen er niets van.

Het is als een kind (de mensheid) een pistool (AI) geven.
We begrijpen er niks van? Er zijn al decennia lang KI opleidingen in Nederland, er lopen genoeg experts rond.
De transformertechniek is wel iets anders dan traditionele machine learning, en zou vlakaf beter zijn. Het is gloednieuwe technologie (die Google al 5 jaar op de plank had liggen zonder te gebruiken uiteraard). Ik denk dat zowat iedereen van nul af begint.

(Sidenote: het is grappig dat de artificiële intelligentie die de wereld bedreigt een "transformer" is. Michael Bay zou het graag aanhoren.)
Veel te snel? Ze zijn er sinds de jaren 50 van de vorige eeuw al mee bezig, dus een 70 jaar. Had een andere opleiding gevolgd en je zou er meer van weten
Uhm, de laatste paar jaar is het gigantisch vooruitgegaan. Het gaat zo ontzettend hard nu dat het wel degelijk gevaarlijk kan worden. Verschillende varianten kunnen al zelf leren, vele malen sneller dan mensen, en met elke stap dat AI leert gaat het in een logaritmisch tempo sneller en sneller.
en met elke stap dat AI leert gaat het in een logaritmisch tempo sneller en sneller.
ooooh... dan hoeven we ons nog niet zo druk te maken dus.
Kijk, als het nou in een exponentieel tempo sneller zou gaan... ;) :+

[Reactie gewijzigd door R4gnax op 22 juli 2024 19:47]

Ik denk dat ie dat bedoelt ;-). Maar als het net zo exponentieel gaat als bij de Corona crisis zal het ook nog wel mee vallen ;-).
Daarnaast, voor sommige toepassingen, de vraag of de modellen wel het goede leren. Zeker in toepassingen die ook waardeoordelen bevatten over de inrichting van de maatschappij, (denk aan het bekende advies gevangenisstraf model in de US) ten opzichte van modellen die vrijwel volledig dekkend zijn op de data die ze krijgen (zoals bv imaging of medische modellen)
En juist bij bv medische wereld kan het me niet hard genoeg gaan, want uit eigen ervaring zijn dokters behoorlijk falende, naast dat het zorg enorm veel geld kan besparen.
Is precies wat ik zeg
De beschikbaarheid van de benodigde rekenkracht en datasets was er tot voor kort nog niet. Zeker in de jaren 50 niet, pas de afgelopen 20 jaar (wellicht nog korter)

Dit soort ontwikkelingen verlopen exponentieel en is voor mensen (straks) niet meer bij te benen. Zelfs experts weten vaak niet hoe algoritmes tot hun output komen (blackbox probleem) Dus ja dit gaat (te) snel en gaat zelfs verder versnellen zeker onder invloed van marktwerking (onderlinge concurrentie) en algoritmes die nog betere algoritmes kunnen ontwikkelen. Zoals we nu computers gebruiken om geavanceerde chips te ontwerpen.
Dit gaat helemaal niet over AI zelf maar over een privacy kwestie.
Zeggen ze ja ;-)

In Italie mag TikTok wel. En in die app zijn er geen privacy bezwaren?

[Reactie gewijzigd door renecl op 22 juli 2024 19:47]

TikTok verzameld voor zover ik begrijp geen privacy gevoelige data van niet-gebruikers Als je meta had aangegeven heb je een punt.
Inderdaad. Het nog maar de vraag of ChatGPT überhaupt wel AI is en bovendien gaat dit niet over AI of ML maar over hoe ChatGPT de trainingsdata heeft vergaard.

Er is data van en over mensen verzameld zonder dat die mensen daar toestemming voor hebben gegeven. De Italiaanse toezichthouder vermoed dat daarmee de wet is overtreden en heeft OpenAI om uitleg gevraagd over de wettelijke grondslag van dat data opzuigen.

Of ChatGPT wel of niet AI is doet er dan niet eens meer toe.
Ohoo… toch maar weer een vpn abonnementje nemen.
Anoniem: 1839988 @chemokar6 april 2023 20:33
Hoe wil je dan betalen voor het premium abonnement?
Dat is tegenwoordig niet zo moeilijk
ChatGPT werkt hier niet op WiFi in Italie naar wel op je mobiele abbo, dus ben benieuwd naar die DNS ban dan.
De Garante per la protezione dei dati personali denkt dat ChatGPT de AVG overtreedt omdat er bij dhet trainen geen toestemming is gevraagd voor het gebruik van persoonlijke data, maar de exacte redenering blijft nog vaag.
'Denkt' dat de AVG overtreden wordt? En de exacte redenaring is vaag? En dan gewoon maar verbannen is wel legaal? Hoop dat andere privacy toezichthouders er niet zo onzinnig mee omgaan.
Facebook en WhatsApp is geen probleem verder.

:X

Op dit item kan niet meer gereageerd worden.