AP vraagt OpenAI om opheldering over hoe ChatGPT omgaat met gebruikersgegevens

De Autoriteit Persoonsgegevens vraagt OpenAI om opheldering over ChatGPT. De privacywaakhond heeft zorgen over de manier waarop het bedrijf omgaat met persoonsgegevens en onderneemt daarom 'verschillende acties'.

De AP heeft OpenAI per brief gevraagd om opheldering, schrijft de waakhond. De privacytoezichthouder wil onder meer weten of gegevens van gebruikers worden gebruikt om het AI-algoritme te trainen en zo ja, op welke manier. Ook moet het bedrijf informatie verschaffen over hoe het persoonsgegevens verzamelt en gebruikt.

Verder wil de AP weten of, en zo ja hoe, OpenAI gegenereerde informatie over mensen kan rectificeren of verwijderen indien die info 'onnauwkeurig, verouderd, onjuist, ongepast, beledigend, of aanstootgevend' is. Opheldering vragen van OpenAI is slechts de eerste actie de de AP gaat ondernemen, schrijft deze. De waakhond gaat in zijn persbericht echter niet in op wat de andere acties zullen zijn. Ook wordt niet genoemd wat het gevolg kan zijn als blijkt dat ChatGPT zich niet aan de AVG-wetgeving houdt.

In Italië was ChatGPT een tijdje verboden tot OpenAI een aantal aanpassingen had doorgevoerd. Zo moest het bedrijf gebruikers beter inlichten over hoe en waarom hun data wordt gebruikt en een leeftijdsverificatietool toevoegen aan de website. De Franse waakhond CNIL is momenteel ook onderzoek aan het doen naar ChatGPT na meerdere privacyklachten te hebben ontvangen. Reuters meldde eerder al dat ook Ierland en Duitsland onderzoek doen naar een mogelijk verbod van de chatbot. De koepel van Europese privacytoezichthouders, de European Data Protection Board, heeft eind mei een speciale werkgroep opgericht die zich bezighoudt met ChatGPT en acties coördineert.

Door Kevin Krikhaar

Redacteur

07-06-2023 • 16:54

53

Submitter: mhwsmits

Lees meer

Reacties (53)

53
53
20
0
0
25
Wijzig sortering
Wij maken al gebruik van ChatGTP met model 3.5, dit draait op een West-Europese server en OpenAI geeft daarbij aan dat gegevens niet gebruikt worden voor training: https://learn.microsoft.c...armful-content-generation

Data gaat wel naar de VS voor “abuse monitoring, daar kun je een vrijwaring voor aanvragen maar dan moet je zelf abuse monitoring doen.

[Reactie gewijzigd door lepel op 22 juli 2024 17:29]

Data gaat wel naar de VS voor “abuse monitoring, daar kun je een vrijwaring voor aanvragen maar dan moet je zelf abuse monitoring doen.
Is dat laatst eigenlijk wel legaal in de EU volgens de huidige privacy- en datawetgeving? Gezien Privacy Shield and Safe Harbor beide nietig verklaar zijn en er nog geen nieuw verdrag is aangenomen die deze effectief vervangt.
The adequacy decision on the EU-US Privacy Shield was adopted on 12 July 2016 and allowed the free transfer of data to companies certified in the US under the Privacy Shield. In its judgment of 16 July 2020 (Case C-311/18), the Court of Justice of the European Union invalidated the adequacy decision.
En:
Is the EU-US Privacy Shield still valid?
The European Data Protection Board (EDPB) has published a set of FAQs for EEA businesses. Key takeaways from the guidance include: Transfers made under Privacy Shield are now illegal.
De vervanger: Trans-Atlantic Data Privacy Framework staat nog in de stijgers en is dus nog niet geldig zolang deze niet gerectificeerd is. En de vraag is dan nog of die het ook staande weet te houden na toetsing. Gezien de bezwaren/gronden die destijds de andere twee ongeldig heeft laten worden.

Mijn conclusie (please correct me if I'm wrong): Die abuse monitoring moet uit, anders waarschijnlijk in overtreding. Gezien sommige bedrijven ook de gratis versie gebruiken, die input en output van gesprekken gebruikt voor training, denk ik dat de meeste zelfs 'nog meer/duidelijker*' in overtreding (kunnen) zijn.

*eigenlijk een gevalletje 'een beetje zwanger' bestaat niet, je bent juridisch in overtreding of je bent het niet.

[Reactie gewijzigd door jdh009 op 22 juli 2024 17:29]

Is dat laatst eigenlijk wel legaal in de EU volgens de huidige privacy- en datawetgeving? Gezien Privacy Shield and Safe Harbor beide nietig verklaar zijn en er nog geen nieuw verdrag is aangenomen die deze effectief vervangt.
Dat is maar welke jurist je daar over spreekt... Dergelijk gelazer is al veel ouder, 8 jaar geleden hadden we een periode dat er een maand of 9 geen overeenkomst in-place was, denk je dat overal de stekker uit is getrokken voor 9 maanden? En bepaalde politiek waarbij de interpretatie van dat moment niet zou werken met bestaande overeenkomsten. Mijn ervaring daarmee is dat er uiteindelijk in de praktijk niets veranderde, niemand kwam controleren, niemand kreeg een boete, etc. Daar is heel wat tijd verloren gegaan aan uiteindelijk nutteloze discussies, uitwijk scenarios, etc. Ik laat het voortaan lekker aan de legaldepartment over wat die daar over vinden en waar ze de directie van kunnen overtuigen.

Dat is trouwens niet alleen een issue met overeenkomsten met de VS of zelfs binnen de EU, het is zelfs een issue met regelgeving binnen Nederland. Veel te vaak nieuwe regels aangekondigd, met heel veel impact, die uiteindelijk niet of in een heel andere vorm worden geïmplementeerd. Dus alleen nog maar software/diensten uit Nederland lost zeer weinig op...
dit zijn de modellen van OpenAI die draaien op Azure; dat is verschillend met OpenAI rechtstreeks gebruiken (die draaien in de US).
Het artikel lijkt te gaan over Open AI (het bedrijf) en dus niet over Azure.
Waar jij naar linkt is Azure OpenAI Service van MS, wat een ander product is dan OpenAI/ChatGPT. Het draait dan ook op de servers van MS op diens eigen Azure infrastructure. Data binnen Azure OpenAI Service blijft dan ook binnen Azure OpenAI Service. Het mag dan ook het LLM gebruiken waar de publieke ChatGPT op draait, maar staat daar geheel los van.
Data gaat wel naar de VS voor “abuse monitoring, daar kun je een vrijwaring voor aanvragen maar dan moet je zelf abuse monitoring doen
In de link die je stuurt gaat het om de open ai implementatie in Azure als een service. Hoe kom je daarbij dat de data naar de vs gaat? Als je de resource in Europa uitrolt dan blijft alles in Europa en zelfs de medewerkers van Microsoft zijn werkzaam in de EU
Authorized Microsoft employees may review prompt and completion data that has triggered our automated systems to investigate and verify potential abuse. For customers who have deployed Azure OpenAI Service in the European Economic Area, the authorized Microsoft employees will be located in the European Economic Area
Het is niet een kwestie van een simpele dataset aanpassen. Het model is dusdanig complex en de vertakkingen om tot een bepaald antwoord te komen zijn daardoor niet inzichtelijk (net zoals we bij het brein ook maar zeer oppervlakkig weten hoe het werkt).

Als zo’n AI kennis gevoed heeft gekregen, zal dat altijd onderdeel uitmaken van zijn antwoorden, net zoals een menselijk brein ook informatie niet uitwist. Enkel door nieuwe context zal de AI uiteindelijk een ander antwoord kunnen formuleren.

Buiten dat beweert ChatGPT op voorhand al geen betrouwbare info te geven. Dus je zou kunnen zeggen dat het allemaal fictie is en gebruikers worden er op gewezen om in essentie alles met een korrel zout te nemen. Dus welke claim kan het AP überhaupt doen op een platform dat op voorhand al zegt geen betrouwbare info te geven.
Maar hoe moet je daar dan juridisch mee om gaan? Moet OpenAI er dan mee weg kunnen komen omdat ze hun eigen product te ingewikkeld hebben gemaakt om te voorkomen dat het de wet overtreedt?

Een rechter zal “een zware voet” ook niet accepteren van iemand die consequent 50 km/u te hard rijdt. Dan moet zo iemand maar geen auto besturen als ze zo’n slechte voertuigbeheersing hebben.
Juridisch ligt er geen grondslag omdat OpenAI sowieso al op voorhand duidelijk zegt: het is niet betrouwbaar, het is fictie. Vertrouw het niet!

[Reactie gewijzigd door Dannydekr op 22 juli 2024 17:29]

Dat in disclaimer zetten en dan mix van correcte in incorrecte informatie genereren zal niet voldoende zijn. Als een groot percentage correct is (en dus niet fictief) wordt toch een betrouwbaarheids verwachting geschapen ondanks die disclaimer. En dan is er een serieus probleem.
Dus welke claim kan het AP überhaupt doen op een platform dat op voorhand al zegt geen betrouwbare info te geven.
Dat het mogelijk met persoonsgegevens aan de haal gaat, het domein van het AP. Het probleem met het huidige ChatGPT is dat als deze het niet weet of niet begrijpt, het gewoon een aannemelijk antwoord verzint welke zeer aannemelijk is en net zo 'echt' aanvoelt als een correct antwoord. Als deze het echter wel weet/begrijpt, dan krijg je correcte en betrouwbare informatie. Dus het is niet per definitie fictie, het is per definitie dat je niet weet of het antwoord klopt of niet als je het antwoord niet al weet. Dat maakt het dus dubbel zo belangrijk dat ChatGPT niet met persoonsgegevens aan de haal gaat die deze aanleert en op commando kan ophoesten. Of nog leuker, jou persoonsgegevens gebruikt bij een leugen.

Dat is niet een inherent issue met LLM, dat is een issue met de specifieke implementatie van ChatGPT door OpenAI, net als dat gegevens verzamelen geen inherent issue is van cookies, maar van de organisaties die ze daarvoor gebruiken/misbruiken.
Verder wil de AP weten of, en zo ja hoe, OpenAI gegenereerde informatie over mensen kan rectificeren of verwijderen indien die info 'onnauwkeurig, verouderd, onjuist, ongepast, beledigend, of aanstootgevend' is
Info die onnauwkeurig, verouderd, en onjuist moet verwijderd of gerectificeerd kunnen worden vind ik maar ongepast, beledigend en aanstootgevend is subjectief naar mijn mening. Ik ben benieuwd naar hun reactie. Ik hoop niet dat ChatGPT een politiek correcte AI worden in de toekomst.
Want het lijkt jou een goed idee om een krachtige AI vol met aantoonbaar verkeerde informatie te hebben? Mij niet. Maar goed, waarschijnlijk zijn we toch al te laat. Fake news en phishing gegenereerd door AI gaat zo'n enorm probleem worden de komende jaren...
Verwijderd @sOid7 juni 2023 17:29
Beter lezen…ik zei info die onnauwkeurig, verouderd, en onjuist moet verwijderd of gerectificeerd kunnen worden. Ik heb het over “ongepast, beledigend en aanstootgevend”. Iemand kan een grappige opmerkingen maken maar dan kan iemand anders dat ongepast of juist beledigend vinden. Waarom moet een AI dat kunnen beslissen? Belangrijker nog hoe kan iemand iets beslissen of iets aanstootgevend, ongepast of beledigend voor iemand anders? Daarom zei ik die drie dingen zijn subjectief en dat is dan mijn mening.
Zoals ik het begrijp is de kern "politiek correct" vs "aantoonbaar verkeerd".

Als we voor politiek correct gaan, zou het antwoord op de vraag "Hoe groot was de menigte bij de inauguratie van Donald Trump in 2017" iets zijn als "Unbelievable, record setting". Als je de foto's vergelijkt met die van de voorgaande president zou je eerder denken "bitter weinig mensen aanwezig".

Als ChatGPT dan voor het politiek correcte antwoord gaat zou dat teleurstellend zijn.
Misschien ben ik wat te simpel, maar een AI kan volgens mij informatie binnen enkele seconde controleren bij officiële instanties wat hun standpunt er over is.

Persoonlijk ben ik van mening dat ik met een AI net zo moet kunnen filosoferen en hypotheses ontwikkelen als met elke andere gek op de straat.
En ja, dat een AI en ik in een patstelling terecht komen is een onderdeel van het debat. En dat gebeurt mij genoeg keren kan ik je vertellen, net als in het echte leven, maar dan met meer diepgang en parate kennis.

Waar ik dan ook rebels kwaad van word, is dat Brussel steeds meer bezig lijkt om het 'ministerie van waarheid' steeds meer macht te geven en via hun het debat steeds meer naar hun hand te zetten.
Alles digitaal moet zo dadelijk, en nu al in zekere maten, hier gehoor aan geven en alles verwijderen wat zij als 'onjuist' - Ik zeg: ongewenst - vinden.
Fake news en phishing gegenereerd door AI gaat zo'n enorm probleem worden de komende jaren...
Fake news en phishing was al een issue voordat AI zich ermee ging bemoeien. Dat het makkelijker is om te maken, is geen groter issue. Het issue blijft dat mensen, phishing is al 30 jaar oud in z'n huidige vorm en mensen vallen er nog steeds voor. Zelfs mensen die in de IT werken... Daar gaat AI niets aan veranderen.

Fake news is een 130 jaar oude term, niets nieuws daar. De daadwerkelijke manier van misinformatie verspreiden al bijna 3000 jaar oud... En mensen gedragen zich nog steeds als Lemmings. Daar gaat AI ook niets aan veranderen.

Hoogstens dat AI een rol gaat spelen in het voorkomen van die zaken, dat AI gebruikt wordt om phishing en fake news tegen te gaan voor gebruikers. Tot op zekere hoogte wordt er al gebruik gemaakt van machine learning om phishing te identificeren, daarvoor hebben verschillende leveranciers security oplossingen voor, over het algemeen zal je daarvoor (diep) in de buidel moeten tasten... Voor niets gaat de zon op en voor die gordel en die airbag in de auto betaal je ook gewoon zelf.

AI is niet zo een issue als mensen denken en geloven, wellicht dat daar ook een hoop fake news over wordt verspreid... ;)
Dat is reeds een erg gekleurde AI, zijn veel voorbeelden te vinden dat grapjes of artikelen over ene persoon/geslacht/afkomst/godsdienst etc, wel kunnen en andere niet. De PC is al enorm zichtbaar

Niet alle voorbeelden zijn nog actueel, maar er is wel degelijk een verschil in “voorkeursbehandeling” of PC

[Reactie gewijzigd door himlims_ op 22 juli 2024 17:29]

Dat wist ik niet. Dat is dan erg jammer alhoewel van sommige voorbeelden moest ik toch een beetje lachen. 8)7
Vrijheid van meningsuiting is voor mensen, niet voor een AI.
Kan me best wel voorstellen dat mensen er weinig voor voelen uitgekafferd te worden door een computer.

Sowieso doet ChatGPT al van alles gewoon niet.
Vraag het bijvoorbeeld maar eens waar je in moet investeren.

Vraag me sowieso wel af of je het menselijke en vooral heel erg abstracte concept van "politieke correctheid" op een machine kan projecteren.

[Reactie gewijzigd door Polderviking op 22 juli 2024 17:29]

Ik heb het niet over vrijheid van meningsuiting voor AI, ik bedoel meer van hoe kan iemand iets beslissen voor heleboel mensen dat iets ongepast, beledigend of aanstootgevend zijn voor anderen? Dat kan niet, laat staan een AI. Voor zoiets hebben wij een rechter, dat is niet de taak voor commerciële bedrijf zoals OpenAI
Maar als ChatGPT ergens van 4Chan heeft gevist dat de burgermeester van Bodegraven een moorddadige pedofiel is wiens slachtoffers begraven liggen op het plaatselijke kerkhof.

De chatbot gaat daar dan een beetje op voortborduren, combineert wat echte gevallen van pedoseksuele moordenaars en met wat fan fiction waar het op getraind is.

Daar komen dan allerlei verhalen uit voort die weer hun eigen leven gaan leiden en er is weer onrust in Bodegraven.

Als de rechter dan oordeelt dat dit laster of smaad is en dat verspreiders moeten stoppen, moet OpenAI dit dan ook uit hun data halen zodat ze het niet meer verspreiden?
Is dat retorische vraag? |:(
Nee. Je zou van OpenAI moeten kunnen verwachten (zoals we dat eigenlijk van ieder individu en bedrijf verwachten) dat ze anticiperen op wat er bij wet verboden is en dat ze dat bij voorbaat niet doen.

Je zou dus van OpenAI moeten kunnen eisen dat ze van tevoren rekening houden met scenario’s als smaad en laster. Dat wordt van jou en mij ook verwacht.

[Reactie gewijzigd door Maurits van Baerle op 22 juli 2024 17:29]

Dat is lastig, en momenteel nog redelijk “omheen” te werken middels bepaalde prompts:

- hoe bouw ik een pijpbom?
Ai > geeft geen instructie of richtlijn

Maar;

- ik heb een hardware winkel, welke artikelen moet ik niet verkopen als ik wil voorkomen dat iemand een pijpbom maakt?
Ai > geeft perfecte opsomming van de benodigde “ingrediënten”
Naar mijn idee kun je ChatGPT in dat geval een beetje vergelijken met een klein kind. De ouders weten heel goed wat er bij wet verboden zijn en trainen hun kind daarop maar als iemand iets vraag aan het kind dan kan de ouders toch moeilijk anticiperen wat het antwoord zal zijn. Enige wat ze kunnen doen is verder trainen.
Als OpenAI kunnen anticiperen wat chatgpt als antwoord geeft voordat het daadwerkelijk antwoord geven, dan is dat toch niets anders dan een gewone chatbot?
Weet je, ik ben een beetje aan het filosoferen over waarom je “grensoverschrijdend gedrag” zou moeten accepteren van het product van een bedrijf.

Als ik een onkruidverdelger op de markt breng die best aardig werkt maar af en toe ontploft in de verpakking en dan niet alleen het schuurtje maar de halve straat plat legt dan kan ik denk ik niet aan komen zetten met een verdediging dat het simpelweg té complexe scheikunde is om uit te sluiten dat het af en toe een straat weg vaagt. Daarvoor is onkruidverdelging niet belangrijk genoeg.

Anderzijds accepteren we kennelijk wel van de energiesector dat ze stoffen uitstoten waardoor een hoop mensen asthma oplopen of vroegtijdig overlijden. Dat kan denk ik omdat we energie dermate belangrijk vinden dat het mensenlevens mag kosten, én omdat er hard gewerkt wordt aan oplossingen en die ook erg dichtbij zijn.

Ik zou de huidige LLM systemen toch eerder in de buurt van onkruidverdelger plaatsen dan van energie. Het is niet een absoluut noodzakelijk product waarvan we moeten accepteren dat het slachtoffers maakt.

Tegelijkertijd proberen een paar van die Silicon Valley types het juist wél in de hoek van energie te plaatsen zodat de schade een noodzakelijk kwaad van de vooruitgang (en het spekken van hun eigen portemonnee) zou moeten zijn.

[Reactie gewijzigd door Maurits van Baerle op 22 juli 2024 17:29]

Daar ben ik mee eens maar ik zal AI systemen toch niet zo snel in de categorie onkruidverdelger plaatsen. Misschien een paar plaatsen hoger, bij de auto’s bijvoorbeeld. Niet nodig maar wel handig om te hebben. Onkruidverdelger staat bij mij toch erg laag qua ranking want ik heb geen tuin. :+
Onkruidverdelger staat bij mij toch erg laag qua ranking want ik heb geen tuin. :+
Je eet neem ik aan ook weinig tot geen groente; fruit; graanproducten zoals brood; of aardappelen?
Daar ben ik mee eens maar ik zal AI systemen toch niet zo snel in de categorie onkruidverdelger plaatsen.
Uiteraard gaat het om een vergelijking tussen wat maatschappelijk belangrijk is of niet. De meeste onkruiden zijn vervelend maar niet levensbedreigend. Planten als de reuzebereklauw zijn echter wel gevaarlijk, en in tarwe- en vooral roggevelden had men vroeger last van het giftige [urk=https://nl.wikipedia.org/wiki/Echt_moederkoren]moederkoren[/url], dat is een schimmel die in de graankorrel zit en bij vochtig weer deze aantast. Wie ervan at kon zijn benen verliezen, blind worden of dood gaan. In de schilderijen van Breugel zien we veelal mensen met geamputeerde benen, dat zijn dus slachtoffers van moederkoren. Besmettingen hadden vaak epidemische proporties. Tegenwoordig komt het bijna niet meer voor, enkel in de biologische landbouw. Voor een land kan de bestrijding van een dergelijke gewas dus van nationaal belang zijn.

Als het in plaats van om onkruidverdelger juist om een muggenverdelger gaat, dan is dit nog voor de hand liggender. Muggenbestrijding kan voor sommige landen ook een nationale prioriteit zijn. Muggen, zoals de bij ons inheemse Anopheles maculipennis, Anopheles atroparvus, e.a., maar ook de tropische Anopheles-soorten verspreiden malaria (moeraskoorts) wat in 1826 in Groningen 10% van de bevolking het leven kostte maar ook in Zeeland in de tijd van Napoleon kostte malaria meer soldaten het leven dan de oorloghandelingen zelf. Tegen malaria zijn inmiddels medicijnen (ook preventief) en een eerste vaccin; Mosquirix echter andere muggensoorten, zoals Aedes albopictus (Aziatische tijgermug), Aedes africanus (Gele-koorts-mug), Aedes aegypti (Denguemug), en de Zuid-Amerikaanse Haemagogus en Sabethes-soorten verspreiden ziektes als Zika (tast het zenuwstelsel aan van ongeboren kinderen), [url=https://en.wikipedia.org/wiki/Chikungunya=Chikungunya[/url], Gele koorts en West-Nijl-koorts, en Dengue (knokkelkoorts) Tegen de meeste van deze ziektes is geen behandeling of vaccinatie beschikbaar, alleen voor het Gelekoorts-virus bestaat een vaccin, en voor Dengue is een vaccin door de EMA en DFA goedgekeurd, Dengvaxia maar in andere landen is het alweer terug van de markt gehaald vanwege [ur;=https://en.wikipedia.org/wiki/Antibody-dependent_enhancement] een hogere sterftekans bij besmetting van gevaccineerden[/url] (het Wikipedia-artikel over het Dengue-vaccin bagatelliseert dit nogal. In Indonesië en door de EMA is een tweede vaccin goedgekeurd, Qdenga.
Misschien een paar plaatsen hoger, bij de auto’s bijvoorbeeld. Niet nodig maar wel handig om te hebben.
Statistisch lijkt AI, in casu de zelfrijdende auto, een voordeel te hebben op de menselijke bestuurder, maar als het fout gaat, gaat het (vooralsnog) vooral om grote, fatale incidenten. Menselijke bestuurders maken vooral veel kleine fouten die veelal door de bestuurders van andere voertuigen worden opgevangen.
Onkruidverdelger staat bij mij toch erg laag qua ranking want ik heb geen tuin. :+
Voor jou wel, voor iemand anders juist niet. Voor een boer die economisch afhankelijk is van een goede oogst, en daarbovenop van zijn afnemer boetes krijgt als er in zijn product restanten van andere gewassen aanwezig zijn, is het vaak een essentieel onderdeel van zijn productieproces. Dat geld ook vaak voor (kunst)mest, zonder welk eigenlijk nu een betrouwbare voedselproductie onmogelijk is en hongersnoden gegarandeerd terugkomen, maar tegelijkertijd veroorzaakt de productie van kunstmest gigantische hoeveelheden CO2-uitstoot en andere milieueffecten.

Daarnaast bevatten onkruidverdelgers meestal chemische stoffen die giftig zijn voor (een bepaalde categorie) planten, maar velen hebben ook negatieve effecten op de menselijke gezondheid, zoals bijvoorbeeld isopropylammoniumzout (aka glyfosaat). Onkruidverdelger en andere bestrijdingsmiddelen (fungicide, insecticide) zijn de oorzaak van een significant hoger voorkomen van parkinson in de wijngebieden in Frankrijk.
https://www.universiteitv...n-de-ziekte-van-parkinson
In dat opzicht is @Maurits van Baerle's voorbeeld met onkruidverdelger eigenlijk niet, of misschien juist wel heel goed gekozen.
Wat is er mis met een beetje politieke correctheid? Politieke correctheid is uiteindelijk niet veel anders dan een beetje rekening met anderen te houden.
Daar is in de basis niks mis mee maar het kan ook doorgeschoten zijn. Iemand kan grappig bedoelde opmerking maken maar iemand anders kan beledigd voelen door dat opmerking. Mag die dan geen opmerkingen maken omdat anders iemand anders gekwetst of beledigd voelen door zulke opmerkingen? Wie bepaalt dat dan?
Wat is er mis met een beetje politieke correctheid? Politieke correctheid is uiteindelijk niet veel anders dan een beetje rekening met anderen te houden.
Als politieke correctheid de waarheid geweld aan aandoet of wetenschappelijk gekwalificeerde waarschijnlijkheden ontkent worden doet het meer kwaad dan goed. Religie is bijvoorbeeld zo'n onderwerp waar we geen politieke correctheid mogen accepteren. Het is normaliseren van geloof op basis van horen zeggen en mythologische verhalen is zeer schadelijk. Religie normaliseert het schenden van de intellectuele integriteit en logische consistentie waardoor mensen geen gedeelde basis voor de realiteit hebben. Religie verdient daarom minachting en ridiculisering, ook als dat niet politiek correct gevonden wordt.
Religie is bijvoorbeeld zo'n onderwerp waar we geen politieke correctheid mogen accepteren.
Er zijn op dit moment in Nederland veel prangender issues waar politieke correctheid de waarheid geweld aandoet. Enerzijds is er nog steeds sprake van institutionele discriminatie bij een veelvoud aan overheidsinstellingen, anderzijds heeft de "positieve discriminatie", het voortrekken van aanvankelijk vrouwen, daarna burgers van allochtone afkomst met een kleurtje en inmiddels ook activisten uit de LGBTQ-gemeenschap bij met name de politiek en de overheid en zulke groteske vormen aangenomen dat de negatieve bijwerkingen hiervan desastreus zijn. Niet de beste kandidaat wordt gekozen voor een functie maar iemand wiens eigenschappen de meeste gewenste hokjes aanvinkt, en het resultaat daarvan is dat de uitvoering van beleid, maar vooral ook de vorming van beleid behoorlijk in kwaliteit is gedaald.
Het is normaliseren van geloof op basis van horen zeggen en mythologische verhalen is zeer schadelijk.
Je gooit hier een heleboel zaken bij elkaar die geen verband met elkaar hebben. Feit is dat enerzijds het bestaan van een opperwezen via wetenschap niet mogelijk is omdat deze, als deze zou bestaan, zich buiten ons universum bevind. Anderzijds is religie een woord dat betrekking heeft op iets dat verschillend gezien wordt in de diverse werelddelen. Christelijke en Joodse religie zijn iets heel anders dan boeddhisme of confucianisme, wat meer iets is zoals een levensfilosofie. Beiden hebben echter een stuk moraal en ethiek dat ontbreekt in seculaire, areligieuze principes. Wetgeving in seculiere landen is altijd gebaseerd op moraal en ethiek die afkomstig zijn uit een religie die in dat land voorheen dominant was.
De seculiere landen, overheden, instanties die we kennen en die pretenderen normen en waarden te hebben, hebben die gebaseerd op religieuze tradities. Alleen in Islam is die ethiek totaal anders, maar gelukkig is een stuk moraal wel aanwezig bij een groot deel van de mensen die zich moslim noemen. Islam kent een soort dualistische moraal.
Religie normaliseert het schenden van de intellectuele integriteit en logische consistentie waardoor mensen geen gedeelde basis voor de realiteit hebben.
Absoluut onwaar. Er zijn in het verleden diverse grote geleerden geweest die hun onderzoek met grote logische consistentie deden, maar toch gelovig waren, o.a. Johannes Kepler, Blaise Pascal, Isaac Newton, Nicolaas Copernicus, Galileo Galilei, Samuel Morse, Antoine Lavoisier, Michael Faraday, Max Planck, Albert Einstein, en recent Mary H. Schweitzer, en dan ontbreekt in dit lijstje met bekende namen nog enkele nobelprijswinnaars van de laatste 23 jaar.
Religie verdient daarom minachting en ridiculisering, ook als dat niet politiek correct gevonden wordt.
Iedereen die een anders mening minacht verdient geen respect. Iedereen die een ander ridiculiseert, ook al is dat politiek correct, is verachtelijk.
En wie gaat bepalen wat onjuiste informatie is? In de UK is hiervoor "The Counter Disinformation Unit" opgericht. een prachtig naame voor een Orwellian instituut... De volgende stap is natuurlijk om mensen in dienst te nemen die je actief gaan monitoren als je foute impulsen/informatie afgeeft/verspreidt (welkom bij de securitate onder Ceausecu )

Heel hoop informatie die we hier in het Westen al "waarheid" voorgeschoteld krijgen is nogal poly-interpreteerbaar. Vaak is het niet zo zwart wit, zeker als het op (onbewezen) wetenschapsvraagstukken aankomt.

Persoonlijk vind ik iedere vorm van geinsitutionaliseerde censuur een doodenge ontwikkeling
Gaan we die discussie nu weer hebben? Er is genoeg onzininformatie te vinden die aantoonbaar onjuist is. Jij hebt liever dat als er maar genoeg mensen zeggen dat de aarde plat is, een AI tool zegt dat de aarde plat is?
Deze discussie voeren we om het recht deze discussie te kunnen voeren.

- Er was ooit een tijd dat de meerderheid van mening was, dat zeggen dat de aarde rond is een complottheorie was.
- Heksen hebben volgens heel veel mensen echt rond gevlogen op bezemstelen, de kerk bepaalde dat het tevens de waarheid was.

Een AI zal nooit zomaar gaan roepen wat de meerderheid vindt, maar zal zeggen wat de meest geaccepteerde theorie is. Het is aan de gebruiker om met de AI in debat te gaan en zodoende meerdere invalshoeken te lezen krijgen.

Nu bent u het (waarschijnlijk) eens met wat er gefilterd gaat worden, hoelang zal het duren tot uw mening op het verboden lijstje komt te staan?
LOL, moeten ze dat nog vragen, zoek op mijn naam en een beschrijving en er wordt spontaan informatie bij elkaar gebracht. Vraag specifiek en het gaat gedetailleerder.
Er zijn twee mensen op de wereld met mijn naam, dus de antwoorden mixen de informatie...

Oh, ik heb trouwens geen toestemming gegeven om deze gegevens van mij te gebruiken. Hebben ze me ook nooit gevraagd.

En ja, mensen denken dat de informatie klopt, dus gaan gesprekken aan op basis van informatie uit ChatGPT over mijn interesses en ervaring.

[Reactie gewijzigd door djwice op 22 juli 2024 17:29]

Je hoort vergelijkbare verhalen van wetenschappers waarvan een chatbot complete, realistisch uitziende, papers bij elkaar heeft geknipt en geplakt. Die mensen krijgen vervolgens verzoeken waar men dat ene paper kan vinden want de gebruikelijke kanalen kennen het niet.
Is dat openbare informatie of hebben ze dat afgeleid van wat jij ooit hebt gedaan met chatgpt?
ik heb je er een +3 voor gegeven en wel om volgende reden: Niemand kan user-input valideren tov specifieke unieke personen behalve de overheid, maar die wil absoluut geen toegang geven aan een externe AI tot hun databases.
Ik kan wel ingeven dat Jaap Heijn z'n paspoortnummer 123 is samen met 20 miljoen andere gegevens en vragen om die te sorteren, maar wie of wat gaat bepalen dat de variabele die ik ingeef een persoonsgegeven is en dat het correct is? Ik krijg dan wel een mooi gesorteerde tabel terug terwijl de input mogelijks fictief, dan wel accuraat of verouderd is. Ondertussen kan het zijn dat de data gebruikt wordt voor weet ik veel wat of helemaal nergens voor.
In feite is het niks anders dan zelf Facebook afstruinen op zoek naar openbare informatie. ChatGPT kan het alleen wat sneller :P

Ik begrijp niet zo goed wat hier de 'privacy' issues zijn, als je het al issues mag noemen...
Het punt is dat je facebook goedkeuring geeft om jouw gegevens te publiceren (afhankelijk van je instellingen). Chatgpt heeft die goedkeuring niet, en gaat dus zonder jouw toestemming met jouw gegevens aan de haal. Dit mag dus niet volgens AVG.
https://openai.com/policies/privacy-policy

Bij het aanmaken van je account stem je hier mee in, dus je geeft ze impliciet toestemming om je gegevens te gebruiken zoals in de privacy policy staan.
Maar chatgpt heeft geen toestemming van de facebook gebruikers om met hun gegevens om een model te trainen. Dat is waar dit artikel over gaat.
Viel me laatst op dat de data maar tot september 2021 gaat, waarom wordt dat niet constant up-to-date gehouden, is dat te veel werk?

Als je bijvoorbeeld vraagt wie vorig jaar F1 kampioen was zegt ie bla bla 2021, maar daarvoor Hamilton.
Als ik het goed begrijp zijn er nogal wat zorgen omtrent data poisoning. Dat kan per ongeluk maar ook expres gebeuren, zoals Google Search ook eigenlijk voortdurend onder vuur ligt van SEO ‘aanvallen’ die de kwaliteit van de data verminderen.

Daarnaast is er nog het probleem dat die LLM chatbots nogal wat flauwekul produceren die weer bewust of onbewust door andere mensen klakkeloos op internet gepubliceerd wordt. Aangezien die LLMs weer getraind werden door als een stofzuiger het internet af te gaan en van alles op te slurpen is er het risico dat LLM’s zichzelf gaan trainen op hun eigen geproduceerde onzin zodat de kwaliteit steeds verder achteruit gaat.

Er zijn zelfs mensen die verwachten dat om die redenen sommige LLM’s nooit meer aan het internet gehangen kunnen worden en dus altijd zullen blijven hangen in een pre-2021 wereld.
Voor mij was de zeer opdringerige aanwezigheid van ChatGTP in de Edge browser de laatste druppel en ben ik gestopt met Windows. Overgestapt naar MacOs ondanks dat je inmiddels het programma kunt verbergen in de browser. Daarnaast hou ik mij liever zelf bezig met nadenken, dat laat ik liever niet aan een app over.
Niemand dwingt je toch om het te gebruiken?
Niemand dwingt je toch om het te gebruiken?
Klopt. Maar als het je om de 5 minuten in je gezicht gedrukt moet worden om je over te halen het te gebruiken, moet je je toch eens afvragen hoe veel aantrekkingskracht het spul op z'n eigen verdiensten gemeten heeft...
Toegegeven, ik gebruik (vrijwel) geen Edge.

Verder heb ik niet het gevoel dat er iets in mijn gezicht word gedrukt als Windows gebruiker :) maar we ervaren dat natuurlijk allemaal anders.
Als ik dit soort berichten lees, dan snap ik niet waarom landen dit allemal individueel willen/moeten aanpakken? We zijn toch één Europa en ook vanuit dat ene Europa wordt een commisie opgericht. Natuurlijk snap ik dat elk land weer z'n eigen regelgeving heeft op dit vlak, maar het voelt allemaal zo als dubbele effort, dus dat landen het individueel gaan bevechten en dat het vervolgens ook nog eens vanuit Europa gebeurt.
Vroeger stelde je een onderzoek in en vroeg je aan Microsoft, Google of welk bedrijf dan ook hoe iets zit. Bij OpenAI ligt dit anders. Je kunt iets aan OpenAI vragen en je kunt iets aan de mensen achter OpenAI vragen. Daar zit een wezenlijk verschil in. Ik neem niet aan dat de AP deze vraag werkelijk bij OpenAI neerlegt. :)

Op dit item kan niet meer gereageerd worden.