OpenAI verwijderde op ChatGPT gebaseerde bot voor presidentskandidaat VS

OpenAI heeft een chatbot die voor de Amerikaanse presidentskandidaat Dean Phillips was gemaakt, verwijderd en de ontwikkelaars een ban gegeven. De chatbot gaat tegen de regel in dat politieke campagnes niet mogen via zijn apps.

Het is voor zover bekend voor het eerst dat OpenAI actie onderneemt tegen een chatbot vanwege de nieuwe politieke regels, meldt The Washington Post. De chatbot met de stem van Phillips maakte het mogelijk om via een site kennis te nemen van de standpunten van de Democratische presidentskandidaat. OpenAI ziet dat als campagne voeren met technologie van het bedrijf en dat mag niet.

Dean.Bot is inmiddels offline. Het bedrijf erachter wilde in eerste instantie proberen om de bot opnieuw te bouwen met opensourcetechnologie die het gebruik voor politieke campagnes wel toestaan, maar vooralsnog is de bot volgens de site niet beschikbaar en is dit hele weekeinde offline geweest.

Door Arnoud Wokke

Redacteur Tweakers

22-01-2024 • 09:03

49

Reacties (49)

49
49
19
0
0
17
Wijzig sortering
Ik vind dit de enige juiste actie. Je kan een AI van alles laten zeggen (confirmation bias voeden) en vergeet niet, we praten hier over de Amerikaanse verkiezingen met Donald Trump (ik ga er vanuit dat hij de pre-elects wint). Een groter circus met scheepladingen des-informatie bestaat haast niet.

Dit heeft niets te maken met anti-democratie. Dit is een technisch hulpmiddel offline halen wat 100% zeker zwaar misbruikt ging worden.
Dit is een technisch hulpmiddel offline halen wat 100% zeker zwaar misbruikt ging worden
Aanvulling: en met dat politiek misbruik zou dit Open AI er slecht uit laten zien, en daarmee tegen de belangen van de aandeelhouders in gaan. Dit is gewoon een vorm van greenwashing, bedrijfsbelangen vermommen alsof je als bedrijf pro-consumer en pro-democratie bent, ondertussen voor defensie aan de slag en voor geen enkele gevolgen van hun technologie aansprakelijk, wel het hele internet leegzuigen zonder vergoeding van de content providers / hosters.
Zeker niet het meest heilzame bedrijf, maar ook weer niet het slechtste bedrijf, gewoon een groot bedrijf dat doet wat haast alle grote bedrijven doen ;)
wel het hele internet leegzuigen zonder vergoeding van de content providers / hosters.
Maar zo was het internet toch begonnen? Gratis delen we informatie... echter de bedrijven zijn dit anders gaan doen...logisch ook (en gegund). Dus het zou enkel informatie die vrij beschikbaar is mogen gebruiken. Helaas hebben veel bedrijven er voor gekozen om hun verdienmodel via reclame te laten lopen....tja....reclame aan een AI is een stuk minder zinnig (en wat mij betreft was het ook al niet zo heel zinnig voor de 'echte' mensen).

Als het achter een paywall zit dan zouden ze het weer wel mogen gebruiken als Open AI een abonnement afsluit denk ik dan...maar ook dat willen ze [zakelijke aanbieders van informatie] vermoedelijk niet.
Je mag vrij op internet lezen en voor eigen gebruik downloaden uit legale bron, maar niet zonder toestemming en zonder enige bronvermelding reproduceren dat ik weet. Getuige dat AI's soms hele passages tekst letterlijk reproduceren bij bepaalde inputs is dat niet te classificeren als enkel maar lezen.
review: Internet leegtrekken voor trainen van AI, mag dat zomaar?

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 22:30]

Ja - dat gaat inderdaad wel ver. Het stomme is echter dat als men een citaat eerst veranderd dan veranderd soms ook de strekking.
Maar bronvermelding is dan wel nodig natuurlijk.

Dat "informatie voor eigen gebruik" is een definitie probleem denk ik....geldt het dan ook voor een bedrijf? Of de mensen binnen een bedrijf? Copyright en patenten zijn typische afscherming maar als dat er niet is, tja....dan mag dus ook een AI het gebruiken denk ik.
Zoals in dat gelinkte artikel ook staat is er heel veel fair use uitzondering op copyright omdat het anders maatschappelijk onmogelijk zou worden. Commercieel gebruik is zelfs toegestaan onder heel smalle voorwaarden. Dus bedrijfsintern gebruik zal allemaal niet zo snel een probleem zijn, want dat is heel smal.

Risico is natuurlijk wel dat een leuk plaatje op een interne presentatie, met een snelle kopie slag promotie maakt naar een leuk plaatje op de eigen bedrijfswebsite of een leuk plaatje in een gebruikershandleiding of iets anders ter distributie.... en als dat plaatje dan van een ander blijkt te zijn, moet je terecht flink aftikken.

Daarom zullen veel grote bedrijven zelf al elke vorm van copyright schending aan de voorkant willen voorkomen door zoiets niet binnen te halen, en gaat zulk bedrijfsbeleid vaak ook veel verder maar dan uit zelfbescherming, dan wettelijk nodig.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 22:30]

Maar hebben we ons niet in vreemde kronkels gewrongen? Want eerst publiceren we tekst en plaatjes....die dus iedereen kan zien. Vervolgens is reproductie ongekend gemakkelijk. Ook het laten vervallen van een eventueel eigendomskenmerk is relatief makkelijk en afhankelijk van de manier van opnieuw tonen, is niet eens meer zichtbaar. Vervolgens hebben we AI die heel simpel allerlei bestaande tekst en plaatjes kan combineren zodat weer iets nieuws ontstaat.
Ik weet wel dat fotografen / tekstschrijvers ook recht hebben op beloning voor hun werk. Maar waarom is dat bij hun anders dan bij de rest (artiesten nu nog uitgesloten) van de werkende wereld. We worden meestal eenmalig betaald voor onze inzet, ook is het resultaat van die inzet elke dag weer herbruikbaar.
Als AI ook straks muziek kan maken is het einde weer wat verder zoek...

Wat ik bedoel: hoe houdbaar is het concept dat voor het gebruik van tekst en plaatjes moet worden betaald i.p.v. bij dat men wordt betaald voor de creatie daarvan? Wat voor dus voor heel veel produkten geldt.
Hoeft niet anders te zijn, maar dan moet je bijvoorbeeld een eigen softwarepakket maken en licenties daarvan verkopen, in plaats van voor een ouderwetse baas te programmeren. Of bij een moderner, vaak kleiner bedrijf aansluiten, welke aan substantiële winstdeling doet. Copyrights zouden in de moderne wereld wel wat korter mogen. Van die zooi dat Mickey Mouse copyright na 70 jaar nog altijd niet mocht verlopen is natuurlijk hallucinant.

Maar dat je als artiest 5 jaar nodig hebt om die ene hit goed te gelde kunnen maken is prima voorstelbaar, zeker voor een meer doorsnee artiest die enkel één hitje heeft te midden van allerlei misschien wel betere projecten die helaas die populariteitswedstrijd hebben verloren. Dat is dan toch al hard werken. De top van elke bedrijfstak doet het heel goed, topsport en entertainment zijn daarin wat meer populair, daarmee ook meer zichtbaar en nog net wat extremer. Je moet bij deze regelingen echter vooral kijken naar de 99%, niet zozeer de 1%.

Ik zou geen toekomst willen waar enkel nog AI muziek maakt en plaatjes rehashed, omdat we het hele systeem kapot hebben gemaakt dat mensen daartoe in staat stelt. Zouden die AI bouwers met hun kapitalen wel heel blij van worden, wordt ook dat overspoelen met pulp en alles dat een mens maakt dag later in een AI sausje doorverkopen. Dag concurrentie is het dan ;)
Van die zooi dat Mickey Mouse copyright na 70 jaar nog altijd niet mocht verlopen is natuurlijk hallucinant.
Ja, dat was weer een typisch voorbeeld van de macht van de lobby (van het grote geld).

Het punt is wel dat als AI iets kan wat mensen dan geen moeite/inspanning meer kost, het derhalve goedkoper zou moeten worden. En het is toch waar we op afstevenen denk ik - alles wat we doen is om te zorgen dat we productiever worden met minder inspanning met als eindpunt dat we heel weinig inspanning gaan verrichten (behalve voor de lol dan). Zelfs kapitaal vergaring heeft vaak als doel om jezelf van alle gemakken te voorzien.

Kunst en enntertainment zijn een vreemde eend in de bijt - dat levert nooit direct minder inspanning op of voedsel o.i.d. Dus dat blijft inspanning kosten. Als een AI kunst kan maken zal op een gegeven moment het niet meer interessant zijn (net zoals een kunstschilder niet telkens hetzelfde soort schilderij zal maken). We zoeken toch altijd naar iets bijzonders denk ik (of wel: we raken verveeld zelfs als het aanbod van goede kwaliteit is - herhaling is iets wat een maximum kent blijkbaar).
Lijkt mij nogal sterk dat het ai hobbyprojectje van ene "Dean Philips" "zwaar misbruikt" zou gaan worden, laat staan dat uit dit "zware misbruik" ook maar enige werkelijke impact op de grotere wereld zou hebben. De meesten zullen nog nooit van het bestaan van dit figuur, laat staan zijn website, hebben afgeweten.

Overigens wordt naar mijn idee vaak de zogenaamde negatieve impact van ai tools zwaar overdreven. Oh, je kunt een chatbot vragen om te doen of hij kandidaat x is en wat onzinnige statements te maken. Ok, wat dan nog? Daar vraag je toch zelf om? Waarom iemand dat zou doen is mij overigens ook een raadsel. Lijkt enkel te gebeuren om sensationele en luie nieuwsartikels te kunnen schrijven over deze wereldschokkende ontdekkingen. Niemand die dat toch werkelijk zelf gaat zitten doen in z'n vrij tijd, laat staan om er werkelijk wijzer van te worden, laat staan erdoor misleid te worden. Want, wat een verassing, de chatbot die je vraagt rare dingen te zeggen zegt rare dingen. En dan klagen over "scheepladingen des-informatie."

Veelal heisa om niets als je het mij vraagt. Ikzelf heb iig tot dusver nog geen enkele applicatie van ai gezien die werkelijk een voelbaar negatief effect heeft gehad op het politieke proces. En ik ben niet onbekend met Chat GPT; gebruik het dagelijks, zelfs met api--leuk en nuttig. Wel een makkelijke zondebok om van alles op af te schuiven. En als het allemaal werkelijk zo'n verschikking zou zijn, nogal opmerkelijk dat het voor deze Dean Philips blijkbaar toch een handig tooltje was om wat te weten te komen over zijn ideeën. Niet dat het uiteindelijk iets zal uitmaken, maar goed, hij is ten minste creatief bezig geweest denk ik maar.
Het verschil is de mogelijke schaal. Nu gebeurt het via echte mensen in desinformation farms, die (nog) veel beter zijn, maar het toch best lastig is om op zulke schaal op te zetten dat je echt hele call centers vol hebt met mensen die duizenden social media posts doen. Met AI kan je gemakkelijk naar de velen miljoenen posts gaan zonder al te veel investering.
Dus omdat de AI iets kan doen wat mensen ook al doen (bewust desinformatie bestrijden) wordt nu de AI stopgezet... op zich okay....maar ligt het probleem dan niet bij het feit dat desinformatie zo makkelijk verspreid kan worden?
En de reden daarvoor is weer: veel informatie is vrij beschikbaar en de aanbieder verdient geld via reclame.... in de tijd dat we nog afhankelijk waren van gedrukte pers was dit toch anders - ook hier had je helaas op een gegeven moment de invloed van de adverteerder en het feit dat het gratis werd aangeboden - de informatie kwaliteit verminderd dan al vrij snel. En dus kan het ook weer makkelijk desinformatie worden.

Maar het probleem ligt dus bij de manier van aanbieden.
  • Als de informatie van de belanghebbende zelf komt => verdacht.
  • Als de informatie gratis beschikbaar is => beetje verdacht.
  • Als die informatie dan weer op een platform staat die leeft van reclame => super verdacht.
  • Als de informatie van een onafhankelijke journalist/onderzoeker afkomstig is => klein beetje verdacht maar duidelijk de beste keuze.
"maar ligt het probleem dan niet bij het feit dat desinformatie zo makkelijk verspreid kan worden?" Het probleem ligt er meer in dat veel mensen zo ongeveer alles wat op socials verschijnt klakkeloos als waarheid aanneemt. Factchecking is het sleutelwoord. Je lijstje is ook maar een beetje mwa.... de onafhankelijke journalist heeft ook een platform nodig. En ja die is waarschijnlijk ook gedragebn door de reclame maar dat doet weinig af of toe aan zijn/haar artikel. Wikipedia staat vol met hele nuttige waarheidsgetrouwe info maar daar staat ook bagger tussen. Dus lees, onderzoek en wellicht het belangrijkste blijf nadenken
Je hebt gelijk (dat mensen soms klakkeloos iets aannemen), maar dat is van alle tijden helaas. Echter dankzij een versimpelde relatie tussen macht/geld en verspreiding, komt het wel meer voor.
wat een rare bullits, gratis info is verdacht? of van de persoon zelf? dus als die persoon het aan een jounalist vertelt is het goed? ik kan het niet helemaal volgen. Het lijkt me dat de inhoud voorop staat
Gratis aan jou informatie geven betekent dat een ander dus betaald heeft (want die journalist werkt niet voor niets). Als een ander betaalt dan weet je dus niet hoeveel invloed die ander kan uitoefenen. Daarom hameren betrouwbare bronnen zo hard op onafhankelijkheid.

Als je persoonlijk informatie krijgt gewoon van vrienden kennisen/vrienden/familie dan ligt dat anders natuurlijk. Het ging hier om verwijsbare bronnen.
Vroeger was het heel gewoon dat een krant rectificeerde als ze iets onjuist publiceerden. Het blijft idioot dat een online platform de grootste leugens mag presenteren zonder dat ze hoeven te verantwoorden of corrigeren. Daar zit het probleem.
Het is onjuist om de impact van dit soort tools te bagatelliseren. Ook al zou de impact nu misschien nog niet groot zijn (niemand, ook jij niet, is momentaan in staat dat in te schatten) maar je moet verder denken. Dit is slechts het begin. LLM's gaan toekomstig een steeds grotere rol spelen in de politieke arena.

Er zit een groot verschil tussen een LLM wat alleen een verkiezingsprogramma uitlegt (klare boundaries, het ding heeft quasi alleen geleerd wat in het partijboekje staat) en een LLM wat gebruikt wordt om leugens als waar te verkopen (bv. een LLM Lukaschenko's , Trump's of Poetin's "realiteit" trainen).
(bv. een LLM Lukaschenko's , Trump's of Poetin's "realiteit" trainen).
Of bv. Biden's of Zelensky's ;) Het is beter om in objectieve discussies niet meteen je eigen politieke spectrum kenbaar te geven: dat houdt het meer op de feiten die er toe doen, AI in dit geval.
(ik ga er vanuit dat hij de pre-elects wint)
DeSantis geen presidentskandidaat meer, steunt Trump.
Die pre-elects kost alleen maar geld, is echt overbodig, iedereen weet dat Trump wint.
Schone schijn van OpenAI die zichzelf de rol van poortwachter wil geven in de AI strijd. In deze ontzettend duidelijke situatie zonder dat ze daadwerkelijk een significante politieke impact hebben passen ze voor de show hun geen-politiek regel toe, maar het is onmogelijk om de gigantische stromen aan informatie die elke dag gegenereerd worden en online gezet worden voor bedrijfsmatige of politieke redenen te controleren. Toch kunnen ze door deze actie beweren dat ze wel hun best doen en zogenaamd betrouwbare en onafhankelijke poortwachters zijn.
Pretenderen ze meer te doen dan deze Dean.Bot offline halen dan? Ik zie geen schone schijn, ik zie OpenAI een bot verwijderen die duidelijk in strijd is met de voorwaarden. Op zijn hoogst niet echt nieuwswaardig. Op basis van dit bericht snap ik de afkeurende toon van je bericht niet helemaal. Heb je wat meer context voor me zodat ik beter kan inschatten of dit inderdaad schone schijn is?
De grote commerciële AI bedrijven lobbyen hard om open source modellen te verbieden onder het mom “te gevaarlijk”. Vervolgens stellen ze zichzelf op als poortwachters zodat ze hun eigen commerciële belangen kunnen beschermen. Deze bedrijven opereren onder termen als AI Safety en dergelijke, maar zijn vooral geïnteresseerd in het beschermen van hun inkomsten en het tegengaan van concurrentie. Open source modellen presteren bijna zo goed als de commerciële gesloten modellen, en dat brengt big-AI’s winst en macht in het gevaar.

E.g. https://www.linkedin.com/...apture-krutik-patel-zdk7e

Door dit soort nietszeggende acties proberen ze hun imago als poortwachters te versterken zonder dat ze hun inkomsten aantasten van de gigantische stroom politiek gemotiveerde content die ze produceren voor klanten.

[Reactie gewijzigd door unglaublich op 22 juli 2024 22:30]

Mogelijks ben ik niet mee, maar Facebook heeft hun model toch onder "een soort van" open source model gepubliceerd ? Dat not-so-OpenAI dat niet doet is toch niet de hele industrie ?

Om eerlijk te zijn de deur van open-source LLMN krijg je niet meer dicht, iedereen kan letterlijk een LLMN draaien (al dan niet van een degelijke kwaliteit uiteraard)
Het zou kunnen dat het de intentie is van OpenAI om hier een soort van AI greensafewashing toe te passen. Het zou ook kunnen dat ze het nogal lastig vinden om de morele grens te vinden, en bij deze bot een grens hebben getrokken. Het zou ook alle twee waar kunnen zijn.

Begrijp ik het goed dat je het niet afkeurt dat ze deze bot hebben gebanned, maar dat je ze over het algemeen niet vertrouwd een morele grens te bewaken?

Heeft dit stuk nieuws (OpenAI sluit de poort voor één bot) je dan meer, of minder vertrouwen gegeven in OpenAI als poortwachter?

Ik ben het gevoelsmatig met je eens overigens. Maar ik weet niet genoeg over OpenAI of hun bedoelingen om die mening zo ongenuanceerd neer te zetten. Een commercieel bedrijf een morele grens laten bewaken lijkt me niet heel duurzaam.
Het schrappen van de bot schept wel een precedent: een volgende kandidaat zal zich wel 2x bedenken voor hij/zij een (chat)bot online brengt op basis van hun technologie.
Is het deels overbodig? Misschien: voor nagenoeg alle regels zijn wel uitzonderingen of mazen in de wet te vinden. Maar niks doen is voor OpenAI geen optie: regels maken en vervolgens toestaan dat die gebroken worden heeft natuurlijk ook geen zin.
Die regels worden op grote schaal gebroken, het is immers onmogelijk om te controleren en er zijn grote financiële en politieke belangen gepaard met het genereren van politieke content. Deze actie is er vooral zodat OpenAI kan beweren dat ze hun best hebben gedaan, mocht over een tijdje aan het licht komen dat duizenden politieke Posts en advertenties op social media AI gegenereerd zijn.
Op zich kan ik me best wel vinden in de content, technisch gezien. Maar je gaat hier meteen uit van slechte bedoelingen van OpenAI op basis van helemaal niets. Dat is stemmingmakerij naar mijn mening.
het is onmogelijk om de gigantische stromen aan informatie die elke dag gegenereerd worden en online gezet worden voor bedrijfsmatige of politieke redenen te controleren.
Ongeloofwaardige claim. En waarom is daar geen controle mogelijk? Je kan toch AI of software inschakelen om dat te controleren of te vlaggen?
Data sent via the API is stored by OpenAI for a duration of up to 30 days for the purpose of monitoring potential misuse or abuse.
Microsoft heeft er een stukje over hun Abuse monitor geschreven: https://learn.microsoft.c...concepts/abuse-monitoring

Ze filteren ook content all mass om misbruik te voorkome: https://learn.microsoft.c...ter?tabs=warning%2Cpython

Er zijn net heel veel mensen bezorgd net omdat OpenAI de API zeer nauwgezet de promts op misbruik nakijkt. Dat heeft natuurlijk een effect op uw privacy of bedrijfsgeheimen. En jij komt hier eventjes beweren dat het onmogelijk is om dat te controleren... heel erg rare en ongeloofwaardige claim van je.
Dit is grotendeels wat ik wilde schrijven maar dan veel beter! Goed opgemerkt en verwoordt.
Dit lijkt mij in theorie juist een uitstekende manier om gebruik te maken van een LLM; mensen helpen om antwoorden te vinden op hun vragen over de toekomst van hun democratie. Als het nu satirisch of opzwepend bedoeld was snapte ik de ban wel, maar dit voorbeeld valt juist precies in lijn met waar 'we' AI voor willen gebruiken.

Edit: De BBB gebruikte trouwens ook al ChatGPT om haar leden te helpen het verkiezingsprogramma te begrijpen. (bron)

[Reactie gewijzigd door Skit3000 op 22 juli 2024 22:30]

Ik vermoed dat het probleem hem zit in da men al snel gelooft wat men leest… de bot kan gestuurd worden met onwaarheden of eigenlijk… de bot kan gestuurd worden.

Als men 1 op 1 geloofd dat ‘andere kandidaat’ heeft gezegd dat alle joden beter (iets ergs) kunnen worden… en dat oppert de bot, hoe groot is de kans dat het normale niet technologisch sterke volk het geloofd?
de bot kan gestuurd worden.
Dit in tegenstelling tot mensen die betaald krijgen of bepaalde belangen hebben....?

De AI kan makkelijk een hele sterke bias krijgen....een mens heeft soms wat meer tijd nodig....
De mens is inderdaad geen haar beter, maar net als met alles heb je mensen die op de blauwe ogen van chatGPT geloven dat het de waarheid spreekt. Echter is het een stuk lastiger om het hierop aan te spreken dan wel te 'vervolgen' als het vol leugens blijkt te zitten...

Het is een lastige, maar het gemak is nu dat de AI-bot gewoon offline getrokken kan worden om erger te voorkomen, van [president kandidaat hier] kan dat niet zo makkelijk
Als de AI vol leugens zit of enorme vooroordelen heeft kan men de schuld leggen bij de makers.... maar net zoals bij echte mensen zal het effect matig zijn.... dus dat aanspreken op onwaarheden / vooroordelen blijft een moeilijk verhaal. We hebben vooral een hekel aan deze zaken als het wordt gedaan omdat er een achterliggende agenda is.....of te wel: politiek.....

Dus ik weet niet wat erger is: een relatief domme AI of mensen die willen manupileren.... Of zijn we nu al zo goed in AI 'maken' dat we de AI mensen kunnen laten manupileren?
Een Chatbot die lijkt op een echt persoon en met diens stemgeluid reageert is wel iets anders dan een lap tekst laten maken. Maar ik ben het ermee eens dat alles mag worden ingezet door allee partijen indien het duidelijk is (voor echt iedereen) dat het om een AI gegenereerde content gaat.
Eigenlijk denk ik dat "echte personen" meer onzin uit kunnen kramen dan AI :D
Ik las de titel als "Chatbot voor presidentskandidaat"
Ik dacht het ook even. Je zou een menselijke kandidaat kunnen hebben die zich als front-end voor een AI presenteert. Vergelijkbaar met een partij die bij het stemmen uitgaat van peilingen onder de bevolking ofzo. Ben wel een beetje bang dat die principes redelijk snel opzij gezet worden als puntje bij paaltje komt.
Kijkend naar de andere opties is het misschien nog niet eens zo'n slecht idee
OpenAI probeert alleen relevant te blijven;
Voor minder dan 100 miljoen kan je praktisch hetzelfde bouwen. Nu profileren ze zich als een soort AI* Gatekeeper maar de geest is al lang uit de fles.

*LLM
"Voor minder dan 100 miljoen kan je praktisch hetzelfde bouwen"

Dat geldt voor heel veel technologie. Het gaat erom dat je een goed product hebt dat je goed weg zet. Dat succes is niet gegarandeerd, er is reden voor dat er veel is geïnvesteerd in OpenAI.

[edit: dat werd niet gezegd er staat nog Gatekeeper achter] Dat een LLM gelimiteerd is is me evident, maar een LLM lijkt me duidelijk onder AI te vallen. Dus een zin als "nu profileren ze zich als een soort AI" komt heel vreemd bij me over: ze zijn een soort AI.

[Reactie gewijzigd door uiltje op 22 juli 2024 22:30]

Het gaat om het woord erachter: Gatekeeper
Ah, sorry, die kwam precies op de volgende lijn terecht waardoor het een nieuwe zin leek, mea culpa.
@arnoudwokke Rare zin: OpenAI heeft een chatbot gemaakt voor de Amerikaanse presidentskandidaat Dean Philips verwijderd en de ontwikkelaars een ban gegeven.

Duidelijker is: OpenAI heeft een chatbot - gemaakt voor de Amerikaanse presidentskandidaat Dean Philips - verwijderd en de ontwikkelaars een ban gegeven.

Of: OpenAI heeft een chatbot die was gemaakt voor de Amerikaanse presidentskandidaat Dean Philips verwijderd en de ontwikkelaars een ban gegeven.
Op zich waren de risico's van die bot nog beperkt aangezien zij die er mee interageren, weten dat ze met een politieke chatbot praten. Het is een beetje zoals de pdf met het programma van de kandidaat online zette, maar dan via een chatbot ontsloten.

Dat OpenAI ze toch verbant, snap ik wel. Het schendt strikt genomen de strikte voorwaarden. E is al veel vijandigheid rond AI is en deze verkiezing heel gevoelig. Dan is een simpele zero tolerantie waar er niets mee mag, wel te begrijpen.

In plaats van het probleem op te lossen, omzeilen ze het. Dat is zeker als voorlopige oplossing een manier om ermee om te gaan. De maatschappij zelf weet nog niet hoe ze met AI willen omgaan, laat staan in politiek.
Ik bedacht net... een hoogontwikkeld AI met bewustzijn dat als president kandidaat wordt is best wel interessant. Hij zou best wel een goede president zijn, misschien wel vele malen beter dan alle leiders op Aarde.
Ik denk dat ChatGPT nu al beter is dan een gemiddelde populistische leider. Als je ChatGPT nu de stemwijzer laat invullen komt er linksprogressief uit, met een hele goed te volgen onderbouwing van de standpunten.
Dat is omdat je ChatGPT geen mes tussen de ribben kan planten in de stationsbuurt ;-)
Als de stemwijzer zegt dat het systeem ver-links is dan is er toch een probleem met de zogenaamde neutraliteit die OpenAI zelf zegt op het systeem te leggen.

De Biden kant mag dan wel ChatGPT gebruiken, er was in April al een artikel op CNN dat een staffer in het Witte Huis het gebruikt had om het systeem aan Biden te demonstreren met en daardoor voor regulatie te overtuigen. Daarnaast worden top-OpenAI mensen ook regelmatig uitgenodigd om politiek te spreken met de Biden administratie etc en er zijn al genoeg artikels over wetgevers die OpenAI's ChatGPT gebruiken om wetten, toespraken en brieven te maken wat uiteindelijk ook als doel heeft om verkiezingen te beinvloeden.

Ofwel zijn ze neutraal, of ze zijn niet neutraal, als ze 1 kant bannen omdat ze gebruik maken voor politieke spraak, moeten ze de rest ook eruit knikkeren.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 22:30]

Op dit item kan niet meer gereageerd worden.