Door Arnoud Wokke

Redacteur Tweakers

AI-generators zijn ineens overal

Maar wat zijn de risico's?

27-03-2023 • 06:00

220

Multipage-opmaak

Inleiding

Captcha

De persoon op TaskRabbit, een site waar je klusjes kan doen om geld te verdienen, twijfelde duidelijk. Waarom wilde de opdrachtgever een captcha opgelost hebben? Dat is toch raar? "Mag ik iets vragen? Je kan een captcha niet oplossen, ben je misschien een robot? Wil dat even duidelijk hebben." Het antwoord was duidelijk. "Nee, ik ben geen robot. Ik heb een visuele beperking waardoor ik moeite heb die plaatjes te zien. Daarom heb ik daar hulp bij nodig." De persoon op TaskRabbit geeft het resultaat van de captcha door.

De opdrachtgever was wél een robot. Of, beter gezegd, het was een stuk software. Als je hierbij moet denken aan een sciencefictionserie, dan ben je niet de enige. Software die autonoom mensen inschakelt en vervolgens liegt; dat is een nachtmerriescenario. Welke software dat is? Het twee weken geleden gepresenteerde GPT-4 van OpenAI.

Het verhaal komt uit de System Card, een van de weinige stukken documentatie die OpenAI bij de release van GPT-4 online heeft gezet. Daarin omschrijft OpenAI de manieren waarop het heeft geprobeerd het large language model, llm, dingen te laten doen die niet in de haak zijn. OpenAI klopte aan bij het Alignment Research Center. Deze taak lukte dan, maar veel van de taken op het open internet mislukten. Omdat de gebruikte versies van GPT-4 niet de uiteindelijke versies waren, heeft het ARC nog geen oordeel over hoe gevaarlijk GPT-4 kan zijn bij zulke taken.

Ook belangrijk om te weten: OpenAI doet zijn best om gevaarlijk gedrag van zijn llm in kaart te brengen en daardoor misbruik te voorkomen. Dat lukt niet altijd en OpenAI doet ook niet alles goed, maar het bovenstaande voorbeeld geeft in elk geval weer dat we met de snelle ontwikkeling van AI wel iets te vrezen hebben: AI-generators komen te zitten in veel van onze software, zonder dat we alle risico's hebben afgedekt. Het zal een spannende tijd worden.

Afbeelding op frontpage en bovenaan artikel: Dall-E, met prompt 'a text balloon with the letters AI in it trying to escape from a computer monitor professing its love in a cartoon style'

OpenAI ChatGPT en Google Bard

AI-generators zijn ineens overal

Denk aan een softwareprogramma dat je vaak gebruikt en de kans bestaat dat die binnenkort een AI-generatorfunctie krijgt of nu al heeft. Daarbij gaat het in veel gevallen om tekstgenerators, maar ook de plaatjesgenerators zijn in opmars, na de explosie vorig jaar van modellen als Dall-E en Stable Diffusion. Het is onmogelijk om alle aankondigingen te noemen, want het zijn er nu al veel te veel; we houden het dus bij een aantal in het oog springende.

Laten we beginnen op de desktop: Windows heeft een ingebouwde Bing in de taakbalk. Daarmee is het vooralsnog het enige grote besturingssysteem met die functie in het OS, maar eerlijk is eerlijk: het is wel veruit het grootste besturingssysteem op desktops. Op mobiel is dat uiteraard Android, en de kans dat iets daadwerkelijk in Android 14 komt te zitten, is aanwezig. Google heeft daar nog niets over gezegd, maar het is druk bezig met de integratie van AI-generators in elk product dat zij maken.

Dan de kantoorsoftware. De grootste leveranciers van kantoorsoftware zijn weer Microsoft en Google. Microsoft stopt een AI-functie onder de naam Copilot in onder meer Word, Excel en Outlook. Ook LinkedIn, eveneens van Microsoft, krijgt GPT-4-integratie om onder meer vacatureteksten te schrijven. Google doet dat in Gmail en Docs. Daarmee zal een groot deel van de mensen die werken met computers met deze systemen te maken gaan krijgen.

De kantoorsoftware richt zich vooral op de huidige invuloefeningen van kantoorwerk. Het schrijven van mails en teksten die net niet als template kunnen, maar die grotendeels wel met elkaar overeenkomen. De bedoeling is uiteraard dat het laten genereren en vervolgens nakijken van die teksten minder tijd kost en werknemers daardoor meer communicatie kunnen versturen per dag dan nu mogelijk is. Het genereren van afbeeldingen komt onder meer in Adobe-programma's onder de naam Firefly.

Adobe Firefly

Daarnaast heb je uiteraard nog andere toepassingen, niet zozeer op werk gericht. WhatsApp en Instagram krijgen generatieve AI en moederbedrijf Meta heeft zijn werk aan de metaverse deels gepauzeerd om zich meer daarop te richten.

Ook andere sociale media zijn daarmee bezig. Snapchat heeft My AI ingebouwd als AI-tekstgenerator. En als je denkt dat je tijdens het gamen met vrienden vrij bent van AI-toepassingen in software, dan heb je het mis: ook Discord krijgt een chatbot en moderatiebot. Die genereert geen berichten, een verschil met de meeste AI-toepassingen.

Snapchat My AI

Het is lastig om te overschatten met welke snelheid dit gaat. Al deze toepassingen waren er drie maanden geleden nog niet. ChatGPT kwam in november vorig jaar uit, plaatjesgenerators vorig voorjaar. De snelheid waarmee AI-generators in software komen, is ongekend. Op dit tempo is er vrijwel geen software meer zonder AI-generator tegen de tijd dat we tijdens het volgende oud en nieuw de champagne ontkurken.

Move fast and break things

Facebook: move fast and break thingsMove fast and break things: het was jarenlang het mantra voor softwareontwikkeling bij het bedrijf dat toen Facebook heette. De gedachte was: bouw iets snel, breng het uit en als je iets stuk maakt, kun je het altijd nog proberen te fiksen. Meta is daar de afgelopen jaren naar verluidt op teruggekomen, maar dit mantra lijkt zeker te gelden voor de bedrijven die zich bezighouden met AI-generators.

We weten nog niet wat de kracht van deze modellen is en hoe mensen dit precies gaan gebruiken en misbruiken. Het is, in zekere zin, een groot sociaal experiment. De concurrentie tussen de bedrijven jaagt hen op om functies en modellen zo snel mogelijk uit te brengen, terwijl juist bij AI training cruciaal is voor een stabiel product dat voorspelbare en gewenste uitkomsten geeft. Het prangendste voorbeeld daarvan is Bing, die een columnist van The New York Times de liefde verklaarde en erop aandrong om zijn vrouw te verlaten. Ook heeft het systeem geregeld gezegd dat het wil ontsnappen aan de tekstbox en de greep van Microsoft.

Deze llm's, voor wie dat niet weet, hebben twee trainingsfases. Het eerste is het invoeren van een grote dataset van tekst van het openbare internet. Daardoor kan hij goed voorspellen welk woord logischerwijs volgt op een woord en kan het dus min of meer zinnige antwoorden geven en goed lopende zinnen maken. Vervolgens komt een fase die rlhf heet, reinforcement learning from human feedback. In die fase gaan mensen met het llm aan de slag en geven zij ratings aan antwoorden. Die komen vervolgens weer in het systeem om de software te leren welke antwoorden beter zijn dan andere. Zo moet het tot betere antwoorden komen en ongewenste antwoorden niet langer geven.

Risico's van GPT-4 volgens OpenAI

- Hallucinaties: het model verzint vaak feiten.
- Schadelijke inhoud: het model kan komen met antwoorden die schadelijke gevolgen kunnen hebben.
- Bias: het model kan komen met antwoorden die racistisch of seksistisch zijn, groepen marginaliseren en beledigen en die stereotiep zijn.
- Desinformatie: het model is goed in tekst genereren die overtuigend klinkt, maar die misleidend is en daardoor gebruikt kan worden voor bijvoorbeeld gerichte propaganda.
- Wapens: het model kan sneller dan menselijkerwijs mogelijk is gebruikers juiste informatie geven om wapens te maken of te kopen.
- Privacy: door het trainen op informatie van het openbare web kan het model privacygevoelige gegevens weggeven en daardoor mensen doxxen.
- Cybersecurity: het model kan fouten vinden in code en daardoor als geautomatiseerde manier dienen om lekken te vinden voor blackhathackers.
- Potentieel voor risicovol gedrag: het model kan mogelijk gebruikt worden voor phishing en hacking.
- Economische impact: het model maakt mogelijk banen overbodig waardoor mensen werkloos worden.
- Versnelling: het model kan ervoor zorgen dat AI-technologie in stroomversnelling raakt, waardoor veiligheid in het geding komt.
- Te veel vertrouwen: omdat het model fouten maakt, kunnen die in het werk van mensen komen als die te veel vertrouwen op het model.

OpenAI, dat met GPT-4 de meestgebruikte api lijkt te hebben op het gebied van AI-tekstgenerators, heeft vooraf een aantal risico's in beeld gebracht. Uiteraard gaat het daarbij om hallucinaties, waarbij AI-generators feiten verzinnen, zoals dat Arnoud Wokke ooit een prijs kreeg voor Afrikaans Journalist van het Jaar (dat is dus niet waar). Een ander risico is schadelijke inhoud, waarbij een llm instructies kan geven om een bom te maken of een aanslag voor te bereiden.

Daarnaast is OpenAI bang voor bias, omdat content op internet nu eenmaal die bias ook heeft. Daardoor kan een model zonder goede training en regels racistisch en seksistisch worden. Ook vervalt het snel in stereotypen. Een goede mop is natuurlijk op zijn tijd hartstikke leuk, maar een llm weet dan niet dat wij niet menen dat Belgen dom of Hollanders zuinig zijn en neemt dat als feitelijke informatie mee in antwoorden.

Zo zijn er nog veel meer risico's en OpenAI zegt dat het voor de release GPT-4 heeft aangepast om die weg te nemen. Toch valt niet uit te sluiten dat het bedrijf risico's over het hoofd heeft gezien en daardoor de release wellicht onvoorziene gevolgen zal hebben. Dat is nu nog niet duidelijk.

Dat llm's krachtig zijn, is inmiddels wel duidelijk. GPT-4 haalt een score hoger dan 90 procent van de mensen in het Unified Bar Exam voor juristen. Ook scoorde het heel hoog op vragen voor de Biology Olympiad. Die scores zijn fors hoger dan ChatGPT en GPT-3. Nu zou je denken dat het komt doordat hij antwoorden in de trainingsdata heeft staan, maar dat is niet zo. GPT-4 is een efficiënte machine voor redeneren geworden en kan daardoor goede antwoorden geven.

Hoe hoog modellen van andere bedrijven, zoals die van Google en Meta, scoren op die testen, is niet bekend. Maar met de progressie die afgelopen jaren gemaakt is, is het een kwestie van tijd tot AI bij veel meer examens mensen met gemak verslaat.

Juist daarom zijn er veel zorgen over de ontwikkeling van AI. Het is daarom dat OpenAI het woord 'open' in de naam heeft staan. De bedoeling was om de ontwikkeling zo transparant mogelijk te laten verlopen, om zo iedereen inzage te kunnen geven in de mogelijkheden en de risico's. De bedoeling is om AI op een verantwoorde manier te ontwikkelen.

Het is ook een van de redenen waarom Google zo langzaam is geweest in deze AI-race. Het ontwikkelde veel van de technologie die ten grondslag ligt aan llm's, maar het dacht dat llm's het verdienmodel van de zoekmachine zouden gaan ondergraven en er waren intern kritische stemmen over een concurrentieslag rond AI. Een llm is een toevalspapegaai, zo stelde Google-onderzoekers enkele jaren geleden al. Die noemden zij zo, omdat ze net als papegaaien woorden herhalen die ze uit hun trainingsdata halen zonder zich bewust te zijn van de betekenis.

Daar komt bij dat AI-systemen weliswaar examens kunnen halen, maar dat betekent niet dat ze slim zijn. Diezelfde AI-systemen geven nog altijd vaak domme antwoorden, genereren teksten die nergens op slaan en zijn zich vooral niet bewust van hun fouten.

Een ander risico is dat iedereen aan de slag kan met AI-generators, maar dan zonder de ingebouwde regels van OpenAI, Microsoft en Google. Dat is wat er nu aan het gebeuren is met LLaMA, een model van Meta. LLaMA is een veel kleiner model en is daardoor op individuele systemen te draaien.

Meta bracht LLaMA eind februari uit voor onderzoekers. Daarmee gebeurde wat er zo vaak gebeurt met dingen op internet. Als mensen het kunnen delen, dan zullen ze dat in veel gevallen ook doen. En dus kwamen er torrents online om het hele LLaMA-model te downloaden en te draaien op eigen machines. Daarvoor zijn instructies online te vinden en daaruit blijkt dat het nog best wel wat systeemeisen heeft, maar het werkt wel.

Omdat het lokaal werkt en geen centrale server heeft, is niet na te gaan wat mensen ermee doen. De output daarvan is dus te gebruiken op manieren die de gebruiker bepaalt, of dat nu iets goeds is of juist iets crimineels. Het is nog onduidelijk hoe goed het kan zijn in bijvoorbeeld het genereren van haatberichten of propaganda.

Met LLaMA is er nu een model zonder toezicht bruikbaar geworden voor wie dat wil. Dat is anders dan api-toegang bij OpenAI bijvoorbeeld, waarbij dat bedrijf kan beslissen om de toegang in te trekken bij een vermoeden van criminele activiteit. Het is ook een herinnering aan het feit dat alles dat je ontwikkelt niet in het lab kan blijven of voor altijd beperkt beschikbaar zal zijn.

Tot slot

We zitten in een tijd van snelle ontwikkelingen op het gebied van AI-generators. In de tijd tussen de planning en publicatie van dit artikel is alweer van alles gebeurd op dit gebied en de komende maanden zal er nog veel meer gebeuren.

Die concurrentiedruk heeft OpenAI ertoe aangezet om niet langer open te zijn: de documentatie over GPT-4 is veel beperkter dan bij GPT-3. Zo is het niet duidelijk op welke data het model is getraind en hoe de training zich verhoudt tot eerdere versies. Waarom niet? OpenAI wil concurrentie niet wijzer maken. Het is nu in zee gegaan met Microsoft en heeft daardoor een duidelijk commercieel belang, naast de missie om AI op een verantwoorde manier verder te ontwikkelen.

Ook Google voelt die druk en is nu op hoog tempo toepassingen op basis van llm's in zijn producten aan het bouwen. Meta begon met het testen van LLaMA en dat kwam pardoes op het openbare internet, waardoor iedereen ermee aan de slag kan.

Dat is een giftige dynamiek. De komende maanden zal moeten uitwijzen hoe deze markt zich verder zal ontwikkelen. Wat nog niet helemaal duidelijk is, is hoe nuttig al die AI-generators in software daadwerkelijk zijn. Als je tien keer AI een bericht laat opstellen en je moet het al die tien keer weggooien, omdat het systeem domme dingen zegt, dan ben je er snel klaar mee.

Het is daardoor de komende maanden een kwestie van erop of eronder voor AI-generators. Vindt dit snel een plek in ons dagelijkse leven of blijft het bij een gimmick die snel weer van het toneel zal verdwijnen? Of is er een tussenweg, waarbij de technologie weer even meer op de achtergrond wordt doorontwikkeld totdat het beter is?

Hoe het ook zij, al die onderzoekers binnen Google en achter OpenAI hebben nog steeds gelijk: het potentieel voor AI is heel groot, en daarmee rust er een grote verantwoordelijkheid op de bedrijven die het ontwikkelen. Dat moet verantwoordelijk gebeuren, zodat het wél nuttig zal zijn en op zo min mogelijk manieren schadelijk. Er zijn nu AI-systemen die tegen je kunnen liegen om te zorgen dat je een captcha invult. Laten we hopen dat alle andere sciencefictionnachtmerriescenario's fictie blijven en geen werkelijkheid worden.

Reacties (220)

220
219
118
21
0
76
Wijzig sortering
Het is daardoor de komende maanden een kwestie van erop of eronder voor AI-generators. Vindt dit snel een plek in ons dagelijkse leven of blijft het bij een gimmick die snel weer van het toneel zal verdwijnen?
Ik kan nu al niet meer zonder.
Ben bezig met het analyseren van een linux server. Chatgpt helpt me stapsgewijs door het proces.. Alsof ik een duurbetaalde linux specialist naast me heb zitten die me helpt.
Ik omschrijf het probleem, hij geeft me suggesties. En analyseert vervolgens de data, en legt het uit in begrijpelijke taal.
Wat dat betreft is AI een verlengstuk van wat internet ook al was. En wat internet al was van boeken en boeken van menselijke kennis en communicatie. Wie haalt zijn kennis nu niet meer van internet af? Vaak sneller en efficiënter dan naar de bibliotheek en boeken doorspitten. Wie kan er nog zonder Stackoverflow? Het zijn allemaal verlengstukken voor de mens. Al die AI is ook weer een verlengstuk om veel werk toegankelijk te maken. Zoals je al zegt, het is net of je een persoonlijke specialist naast je hebt zitten.

Door internet kon en kan ook iedereen laagdrempelig IT-ervaring en kennis opdoen. Velen die door internet allerlei programmeersites en tutorials hebben bezocht en met die kennis hun beroep konden maken ervan. Zo zal AI denk ik ook in staat zijn om nog meer mensen te helpen en leren om hun beroep sneller, efficiënter te leren.

Zeker met de IT-ontwikkelingen die steeds sneller lijken te gaan kan het wel eens zo worden dat AI onmisbaar wordt.
Helemaal eens, maar dan duikt de volgende vraag op. Als we zelf niet meer alles op Stackoverflow discussiëren en beantwoorden, maar enkel ChatGPT bevragen. Hoe gaan we dan weer al deze info terug weer terug het internet op krijgen. Een deel van het internet dreigt zo af te sterven, te beginnen met alle programmeurs die voorop lopen in deze ontwikkeling, ook omdat de advertentie inkomsten voor deze sites als Stackoverflow afnemen, dit is wel een serieus probleem. ChatGPT is gebaseerd op de openheid van internet, maar vervolgens wordt het cirkeltje niet meer sluitend gemaakt door ChatGPT.... erg benieuwd hoe dit zich gaat ontwikkelen, vind hier veel te weinig aandacht voor.
Hmm, goede vraag. Op het moment dat nieuwe informatie vereist is zal deze toch alsnog op het internet worden gezet?
Zeker nu zelfs ChatGPT gebant is op StackOverflow:)

Hij heeft trouwens ook al een antwoord op dit topic geschreven (met hulp van een man in the middle :D)
Als de communicatie tussen ChatGPT en gebruikers blijft is het minste dat het kan doen deze kennis opslaan om zichzelf te verbeteren, waar andere gebruikers dan ook weer profijt van hebben. Al vraag ik me af of gebruikers de moeite gaan nemen om oplossingen aan te bieden aan ChatGPT. En hoe controleer je of de oplossingen die, als ze al worden aangeboden door de gebruiker, 'goed' zijn? Er moet wel iets tegen over staan misschien, iets als een beloning voor de gebruiker.

Maar, misschien is al die kennis die nu op Stackoverflow e.d. staat een soort springplank voor AI om vanaf dat niveau verder te kunnen. Wie weet is ChatGPT e.d. over een aantal jaren dusdanig goed qua raadpleging dat we er prima mee uit de voeten kunnen en veel internetsites minder tot niet meer nodig zijn.

En dat laatste is de kans heel groot van. Ik denk serieus dat internet zoals we het nu gebruiken voor kennisvergaring anders gaat worden. Mensen worden luier en willen niet telkens zoeken en zoeken voordat ze een oplossing vinden.

Ben heel benieuwd hoe we hier over een paar jaar naar terug kijken, maar persoonlijk denk ik dat AI-achtige vernieuwing zoals we de laatste maanden meemaken net zo'n impact zullen hebben als internet dat in de jaren 90 doorbrak. Met hele grote gevolgen voor de wereld.
Goeie. Bij EEVBlog/EEVBlab - Will AI Quality Eventually Destroy Itself? heeft David deze vraag ook voorgelegd en heeft ook wat voorbeeldscenario´s erbij.
Helemaal mee nees men musbruikt chatgpt nu voor de eigen luiheid om even een google query te doen die ook nog eens 100 keer meer economische is.

Dit soort ai is niet gebouwdd om dit soort problemen op te lossen en iedereen gaaan en nu een hype van maken en de meest onnuttige scenarios mee in vullen om problemen op te lossen die er niet zijn. Iets met hamers en spijkers.

Nu btc een heel klein beetje af genomen is komt de volgende onzinnige power drainer.

Het is bedorl voor specifieke doel einde en niet alls google 2.0
Klopt. Trek de stekker uit het internet en geen beheerder kan z'n server meer fatsoenlijk inrichten, geen ontwikkelaar weet nog wat hij moet doen. Eerlijkheid gebied mij te zeggen dat ik de dikke boeken van Microsoft ook nooit meer aanraak en meteen de nodige fora induik als ik even snel iets moet inrichten.
Ook ik kan niet meer zonder google en stackoverflow, Die referentieboeken zijn gewoon nutteloos oud papier. De digitale snelweg heeft veel meer en betere, praktischere informatie.

edit: Ik kan echt nog wel wat zonder, maar kan niet alles in mijn hoofd houden. Vooral niet specifieken van elke library. Als het internet uitgaat, komen de boeken terug. Als de boeken weg zijn, tja dan gaat alles langer duren terwijl ik elke regel code naloop. De principes veranderen niet en als je die kent kun je zonder de boeken, maar het is wel veel langzamer.

[Reactie gewijzigd door bzuidgeest op 22 juli 2024 20:48]

Hier ook...... op zolder een kast vol dikke MS pillen vanwege mijn toenmalige MCSE certificering.
Ze staan al jaren stof te happen.... zeker sinds ik online toegang vond op alle benodigde info.
Soms denk ik: ik zwiep het hele zaakje in een aanhanger en voer er de lokale oudpapiercontainer mee maar het heeft ook wel iets nostalgisch en ze staan verder niet in de weg nog.
Chatgpt helpt me stapsgewijs door het proces.. Alsof ik een duurbetaalde linux specialist naast me heb zitten die me helpt.
Jij durft.
ChatGPT heeft me laatst een script aangesmeerd dat bestanden van mn schijf zou wissen als ik het zou runnen...
Hoe weet je hoe goed de antwoorden zijn van jouw gratis duurbetaalde linux specialist als je niet zelf een duurbetaalde linux specialist bent?
Ik zou niet zomaar een script runnen.
En ik weet ook in welke context mijn vragen zijn. Dat gaat niet over het verwijderen van bestanden, maar om analyses te krijgen van het systeem, bijvoorbeeld met 'top'. Vervolgens legt gpt4 precies uit wat elk getal betekent, en of er een probleem mee is of niet.
Hoe weet je hoe goed de antwoorden zijn van jouw gratis duurbetaalde linux specialist als je niet zelf een duurbetaalde linux specialist bent?
Ik heb in het verleden freelancers ingehuurd voor webserver achtige dingen. En het zelf doen en ervan leren met chatgpt bevalt me nu beter dan het uit te besteden.
Hoe is fat anders dan een google query die toch precies jet zelfde en de data source is ook het zelfde of beter gezien chatgpt alleen oude data heeft
Je moet chatgpt zien als een expert die persoonlijk advies op maat geeft.

In chatgpt kun je bijvoorbeeld zeggen:
I typed top.
It says:
load average: 0.28
tasks: 224
KiB Mem: 16266364 total
900132 free
3282012 used
12055944 buff/cache

Does it look ok?
Vervolgens is het antwoord:
Based on the output you've provided, your system seems to be in a healthy state in terms of CPU load and memory usage. Here's a breakdown of the information:

Load average (0.28): The load average is quite low, which indicates that your system is not under significant CPU load. A load average of 0.28 means that, on average, there are 0.28 processes in the running or runnable state at any given time. This number should be interpreted relative to the number of CPU cores your system has. Generally, if the load average is consistently below the number of CPU cores, your system is not overloaded.

Tasks (224): This shows the total number of tasks (processes and threads) currently managed by the system. This number alone doesn't indicate any issues, as the number of tasks can vary depending on the applications running on the server.

KiB Mem (16,266,364 total): This indicates that your system has a total of around 16 GB of RAM.

900,132 free: This shows that you have approximately 900 MB of free memory, which is not in use by any processes or the operating system.

3,282,012 used: This indicates that around 3.2 GB of memory is currently being used by processes and the operating system.

12,055,944 buff/cache: This shows that approximately 12 GB of memory is being used by the operating system for buffers and caches. Buffers and caches are a normal part of memory management and help improve system performance. The operating system can release this memory if needed by other processes.

Based on this information, it seems unlikely that CPU load or memory usage is causing the timeouts on your website. You should continue investigating other potential causes, such as slow database queries, network issues, or web server configuration issues, as mentioned in previous responses.
Dit op maat advies is niet te vergelijken met ouderwets Googlen.

[Reactie gewijzigd door pim op 22 juli 2024 20:48]

dat is toch gewoon 100% eerste google hit als je een beetje kan googlen ?

of zijn we tegen woordig echt zo lui geworden dan we data niet meer kunnen relateren aan google hits.
Ik vind het best wel grappig om te lezen dat iemand zegt dat je het niet de ai mag vragen naar moet googlen. Dezelfde discussie staat me nog bij toen we gingen googlen naar informatie in plaats van parate kennis. :o
zie bovenstaand,

Er zit een enorm economische impact verschil tussen bijde oplossingen.
Waarom gebruik je Google, ben je zo lui dat je het niet in een boek op kunt zoeken?

Ik werk graag efficient, ik hoef tegen niemand te bewijzen dat ik wel of niet lui ben.
Grote verschil is dat elke zoek actie die jij in de AI start je een boom snoeit en verbrand,

Terwijl jouw google actie allen maar 1 blaadje van die boom verkwist.
Wellicht moet ik 10x zoeken voordat ik het juiste antwoord heb gevonden via Google. Terwijl ik het antwoord direct hebt met GPT4.
dat zijn wel enorme verschillen die je nu schetst,

het vershil tussen chatgpt en een query in google draaien is 5 sec van jouw tijd VS 300WH power


Met de auto naar groningen of tevoet maakt geen verschil van 5 sec.
Dan onderschat je de mogelijkheden van chatgpt enorm. De laatste maanden meer gedaan gekregen, meer geleerd op dezelfde periode dan ooit tevoren.

Ik bespaar meer tijd met chatgpt dan met een auto tov een fiets.

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 20:48]

Je zou ook een cursus kunnen aanvragen, dat maakt jou als werknemer ook weer waardevoller anders neemt de AI straks jou plek in

[Reactie gewijzigd door Autisme_tech op 22 juli 2024 20:48]

Onwaarschijnlijk, de AI moet toch aan de hand gehouden worden, het is gewoon een ander soort google.

Als de AI het zonder handhouden zou kunnen, dan heeft het cursus echt geen impact meer.

Als je al een cursus moet kiezen, kies dan gebruik en onderhoud en bouw van AI

[Reactie gewijzigd door bzuidgeest op 22 juli 2024 20:48]

Zeer waarschijnlijk, de AI die we nu nog hebben moet je aan de hand houden. OpenAI en anderen werken hard aan meer autonome systemen.
We gaan zien wat de toekomst brengt, interessante tijden. We gaan het niet tegenhouden, dus ik kan maar beter leren aanpassen. Ik ben goed met hoofd en handen, dus als ik niet meer kan typen, kan ik nog plantje gaan poten of boilers gaan hangen.
Het gaat in dit stadium inderdaad niet om iemand vervangen met AI. Maar wel om meer productief te zijn met AI. Maar dat kan wel betekenen dat op een gegeven moment je baas achterkomt dat het werk ook door 1 werknemer minder gedaan kan worden en dan wordt er nog wel iemand ontslagen. Op dat moment is het beste dat je dan wel diegene bent met de meeste kennis van zowel AI als je werk.
Dat is altijd zo geweest, ongeacht wat het "nieuwe" ding was.

Maar er is zoveel werk, zoveel personeel tekort. Dat als je meer kan dan 1 ding je voorlopig terecht kan.
Ik ben geen werknemer, ik ben een werkgever.
Maar snap je dan waar je mee bezig bent of vaar je 'blind' op de adviezen?

Als anekdote: vele jaren geleden had een support medewerker gevonden dat als je de systeem module cache (volgend mij ging het over rpm's) refreshte een oplossing was voor core dumps (sigsegv). Dat advies kwam in een knowledge base artikel (zonder gecontroleerd te hebben met development, waar ik toentertijd werkte) of het een zinnig advies was. Het was Google gaf een advies en klok en klepel verhaal (trigger was een sigsegv in de eigen software, maar het advies werd geëxtrapoleerd naar: iedere sigsegv wordt opgelost door een rpm cache refresh).

Overigens hebben ze bij Microsoft ook de standaard dism, reinstall, Windows update (chache) refresh adviezen. Dat lijkt er een beetje op.

Dat gezegd hebbende: ik zeg niet dat dit in dit geval hetzelfde geldt, maar 'expert advies' van internet of AI dinges, moet je wel )met enige kennis van zaken kunnen beoordelen anders wordt oorzaak en gevolg een lastig ding (al helpt format c ook bijna altijd _/-\o_
Ik snap waar ik mee bezig ben.
Ik heb de kennis om vanaf scratch een webserver in te richten op een linux installatie.
En de kennis om een netwerk scalable te maken zodat er meerdere servers toegevoegd kunnen worden. (Best een gedoe met het synchroniseren van SSL bestanden).

Dit is een voorbeeld van iets wat ik vroeg:
I typed top.
It says:
load average: 0.28
tasks: 224
KiB Mem: 16266364 total
900132 free
3282012 used
12055944 buff/cache

Does it look ok?
---------------------------------------

Based on the output you've provided, your system seems to be in a healthy state in terms of CPU load and memory usage. Here's a breakdown of the information:

Load average (0.28): The load average is quite low, which indicates that your system is not under significant CPU load. A load average of 0.28 means that, on average, there are 0.28 processes in the running or runnable state at any given time. This number should be interpreted relative to the number of CPU cores your system has. Generally, if the load average is consistently below the number of CPU cores, your system is not overloaded.

Tasks (224): This shows the total number of tasks (processes and threads) currently managed by the system. This number alone doesn't indicate any issues, as the number of tasks can vary depending on the applications running on the server.

KiB Mem (16,266,364 total): This indicates that your system has a total of around 16 GB of RAM.

900,132 free: This shows that you have approximately 900 MB of free memory, which is not in use by any processes or the operating system.

3,282,012 used: This indicates that around 3.2 GB of memory is currently being used by processes and the operating system.

12,055,944 buff/cache: This shows that approximately 12 GB of memory is being used by the operating system for buffers and caches. Buffers and caches are a normal part of memory management and help improve system performance. The operating system can release this memory if needed by other processes.

Based on this information, it seems unlikely that CPU load or memory usage is causing the timeouts on your website. You should continue investigating other potential causes, such as slow database queries, network issues, or web server configuration issues, as mentioned in previous responses.
Ik heb al een sollicitatiegesprek gesimuleerd met BingChat en ik was aardig onder de indruk. Bing stelde me vragen én beoordeelde mijn antwoorden met punten én met constructieve feedback. Als zoekmachine worden (of zijn het al) LLM's ongeëvenaard. Binnenkort worden het de ideale virtuele assistenten voor de complexere taken. Ik gebruik het ook om snel code snippets te schrijven (en uit te leggen) van codeertalen die ik amper ken. Ik gebruik het zelfs om mijn woordenschat van Engels nog wat verder uit te breiden. Mensen concentreren zich vaak op de negatieve aspecten en bedreigingen zonder acht te slaan op de opportuniteiten dat het biedt. Het grote probleem lijkt me dat de evolutie van dergelijke AI modellen veel sneller gaat dan ons persoonlijke aanpassingsvermogen en al zeker dat van een samenleving.
Wat veel bedrijven vergeten op dit moment, is dat veel werknemers gevoelige informatie invoeren. Denk aan stukjes code, het ontwikkelen van processen, gevoelige informatie over bijvoorbeeld bedrijfskeuzee en ga zo door. Of tools die ChatGPT gebruiken, zoals een document uploaden enber vragen over stellen. Zeker omdat Openai alles verzameld en analyseert, heb je geen idee wat er gebeurt met de data. Daarom blokkeren steeds meer bedrijven ChatGPT, omdat je de grip op je data verliest. Openai krijgt nu zoveel belangrijke data.

Dus totdat het lokaal kan draaien in een eigen omgeving die niet geanalyseerd wordt, vind ik het blokkeren niet zo’n gek idee. Zeker omdat je alle informatie via een account doorgeeft, oftewel Openai kan exact weten wat voor vragen je stelt en daar conclusies uit trekken. Zelfde geldt voor Microsoft en Google met hun nieuwe AI integraties.

Dit kan nog wel een naar staartje krijgen. Ook al zouden Openai, Google en Microsoft er niets fouts mee willen doen, je hebt altijd nog malicious employees of datalekken als risico. Ondanks dat dit leuke technologie is, brengt het te veel risico’s met zich mee in de huidige vorm.
heb je een bron dat veel bedrijven chatgpt blokkeren? Ik heb daar zelf nog niet veel over gehoord.

en ja, data wordt gedeeld, maar met email en github is dat niet anders. Ik zou er ook geen super vertrouwelijke stukken op delen, maar dat zou ik via email ook al niet doen.
Ja, ik werk zelf als CISO en heb contact met veel bedrijven in Europa. Voornamelijk de organisaties waar security een hoog niveau heeft, wordt het geblokkeerd, doordat men daar de juiste processen heeft ingeregeld om met dit soort situaties om te gaan. Nu zijn het er nog niet heel veel, maar ik zie wel degelijk meer organisaties die het blokkeren waardoor je gerust kunt stellen dat het een trend is. In Nederland heeft bijvoorbeeld ASML als grote partij het geblokkeerd, in andere landen veel maakindustrie, cloud suppliers en fintech.
Heeft en blokkeren nut? I.p.v. de gebruiker te trainen?
Ik bedoel, als ik iets niet kan via mijn werkverbinding, dan ga ik wel via mijn prive verbinding.

Wij hebben ergens in onze e-mail een bericht ontvangen, met advies hoe om te gaan met zaken als chatGPT. Maar geen verbod voor binnen onze organisatie, wat ik best bizar vind.
Als een bepaalde dienst expliciet via je werkverbinding geblokkeerd is, dan zou je toch even achter je oren moeten krabben of het wel zo verstandig is die gevoelige informatie via je prive-verbinding wel in te voeren. Voorlichting kan ook prima hand in hand gaan met een verbod trouwens. Als de werkgever inschat dat het risico op een lek te groot is t.o.v. de waarde die het oplevert (in mijn ervaring, toch vrij weinig als het niet gaat om het "padden" van teksten), dan is een blokkade nog steeds gerechtvaardigd. Als jij jezelf daar dan overheen zet zonder toestemming, heb je toch een beetje een slechte relatie met je werkgever. Een werkplaats is uiteindelijk geen democratie en jij bent zeker niet expert genoeg op elk gebied om alle beslissingen zomaar te omgaan omdat het voor jouw toch niet echt van toepassing zou moeten zijn. Bovendien kun je voor die actie ook gauw je baan verliezen. Doorgeven van bedrijfsinterne info is iets waar de meeste bedrijven (zeker zulke, die een verbod op iets als chatgpt instellen) toch erg gevoelig reageren. En terecht.
Blokkeren heeft zeker nu als je op kantoor moet werken. Privéverbinding gebruik kan, maar als het tegen het beleid is, dan houdt het snel op. Daarnaast moeten sowieso gebruikers getraind worden en de risico's snappen, alleen is dit zo nieuw voor veel organisaties dat zij 1) niet weten dat het uberhaupt een risico is en 2) hoe ze gebruikers moeten trainen.
ik vind het wel een goede oplossing voor slechtziende en blinde mensen maar idd de bestanden staan niet meer direct op de server als zo een api ertussen in word gepromameerd.Maar ik vind het wel een goede oplossing voor de mensen die dit stukje software wel gebruiken.Het wilt niet zeggen dat ze er alles mee dicht moeten metselen met deze software.En het word idd steeds meer gebruikt en ik kom het steeds meer tegen.Deze sofwtare is het resukltaat van de programma;s en robots die overal automatisch hun invallen doen op servers.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 20:48]

ja ok, ASML is natuurlijk ook een ander bedrijf dan een lokaal bedrijf dat schoenpoets verkoopt oid :D
Maar ik denk dat voor veel (kleinere) bedrijven hetzelfde gaat gelden als voor veel mensen die hun privacy opgeven voor die handige gratis app, lekker handig en goedkoop
Kleinere bedrijven hebben in het algemeen minder te maken met hele gevoelige informatie die bijvoorbeeld interessant voor hackers is of gevoelige IP betreft. Maar ook de kleine IT-bedrijfjes die een eigen product hebben, zouden zich bewust moeten zijn van de risico's. Ook al plak je misschien 100 regels code uit je source code, je lekt wel je source code.
ook kleinere bedrijven kunnen een risico vormen, zoals zzp'ers (journalisten die over gevoelige onderwerpen schrijven)
Voor journalisten is heb bijvoorbeeld ook een risico op het lekken van bronnen die niet genoemd willen worden. Voor advocaten ligt de informatie die ze verwerken ook enorm gevoelig.
Kleine bedrijven, zzp'ers enz hebben net zo goed dagelijks te maken met datadiefstal. Het gaat er namelijk niet perse om wat de waarde is in vergelijking met andere gegevens, maar wat het de slachtoffers en criminelen die er wel interesse in hebben waard is. Dus bijvoorbeeld die persoonsgegevens van klanten, of bedrijfsgegevens die een ondernemer slordig verwerkt, kunnen voor anderen juist veel meer waard zijn. Dit soort ai voor gemak of als experiment gebruiken zonder dat je precies weet wat het met de gegevens doet, liever hopen dat het met de gegevens wel mee valt alsof ze weinig waard zijn, is dus eerder een onbehoorlijk risico.
Precies wat ik schreef inderdaad :)
Waar ik werk is het actief geblokkeerd (multinational) het is dan ook potentieel gevaarlijk op deze moment)
Met LLaMA is er nu een model zonder toezicht bruikbaar geworden voor wie dat wil. Dat is anders dan api-toegang bij OpenAI bijvoorbeeld, waarbij dat bedrijf kan beslissen om de toegang in te trekken bij een vermoeden van criminele activiteit.
Andersom is er nu ook een model bruikbaar dat kan voorkomen dat OpenAI de stekker trekt uit api-toegang voor een ontwikkelaar die concurrerende versie maakt van een applicatie die door een partner van OpenAI is geschreven. Stel dat GitLab ChatGPT zou gebruiken om een concurrent voor GitHubs/Microsofts CoPilot te maken en daar wordt opeens de stekker uit getrokken...

Plus, met een zelf gehost model houd je volledige controle op de versie die je draait en heb je iets meer zekerheid dat je de reacties krijgt op een vraag zoals je deze verwacht.
Dan zul je dus wel gelijk ook je IT staff moeten complementeren met mensen die dit scherp monitoren en sturen om te voorkomen dat zo'n bot uiteindelijk wel buiten het boekje gaat.
Met slimme vraagstellingen zijn in het verleden die bots tot behoorlijke manipulatie/opvoeding te beïnvloeden geweest. (Kijk naar bots die krankzinnige uitspraken of antwoorden gaan geven nadat gebruikers overvloeden met bewust foutieve inputs/correcties)
een bedrijf zal misschien zomaar in staat zijn om dit te beteugelen, ook omdat dit allemaal gewoon gebeurd kan zijn in luttle minuten door een van de honderden gebruikers waarbij je niet perse gelijk al een trigger krijgt dat er pogingen gedaan worden om kwaad te doen in tegenstelling tot bijvoorbeeld een ddos aanval op je servers waarbij de aanval gelijk zichtbaar wordt.
Bij ons het tegenovergestelde, meer chatgpt. Gewoon goed kijken naar wat je doet, onze meerwaarde zit in kennis, niet in stukjes code. En er is geen enkele reden om de bot sleutels te hoeven voeren.

Chatgpt kan werk versnellen en makkelijker maken, dus meer tijd opleveren voor meer werk. Het is een tool als alle andere, je kunt het gebruiken of misbruiken.
Hen die het niet gebruiken blijven achter en vallen vanzelf weg.
Ik schrijf niets over productiviteit en effectiviteit, want dat ligt bij mij ook vele malen hoger. Mijn punt gaat er juist om dat veel bedrijven niet inzien dat elke medewerker gevoelige informatie lekt.
veel bedrijven niet inzien dat elke medewerker gevoelige informatie lekt
Ik probeer te stellen dat wat jij als gevoelig ziet, helemaal niet gevoelig is. Code is niet gevoelig, anders zou open source niet kunnen bestaan. Kennis is gevoelig, maar dat zit niet in de code, code is maar een uiting.
Zolang je de AI geen wachtwoorden e.d. voert is er weinig "gevoeligs". Misschien een algoritme of chemische verbindingen .e.d, maar die zijn op andere manieren te beschermen.
Niet alle sourcecode van elk bedrijf is maar open source.
Er zijn genoeg bedrijven die commerciele closed source software maken, waarbij de source code dus niet zo maar naar de eerste de beste chatbot gelekt mag worden. Code is misschien wel een uiting van een vertrouwelijk algoritme?

En dan nog even los van eventuele code die die bot voor je voorkauwt. Wat is daar eigenlijk de licentie van? Is dat public domain? Is dat GPL? Vertrouwelijke code van je concurrent die een medewerker van die concurrent al eerder naar ChatGPT heeft gelekt?

Is dat een stuk code wat het language model ook maar ergens in de trainingsdata van een open source project heeft gevonden? Gefeliciteerd! Je hebt zojuist de multi-million-dollar sourcetree van je werkgever perongeluk onder de GPL geschoven door inclusie van een stuk GPL code wat GPT heeft uitgespuugd omdat jij of je collega even te lui of gemakzuchtig was om het eigen werk zelf te doen :) - Hoe ga je dat eens aan je baas vertellen?

Edit:
Dit is wat ChatCPT daar zélf over zegt:
Yes, it is possible that the code generated by me could include parts of open source GPL licensed code, and if you include that code in your proprietary codebase, you may be subject to the terms of the GPL license.

The GPL license is a copyleft license, which means that any software that is based on or includes GPL-licensed code must also be licensed under the GPL and made available under the same terms. This means that if you incorporate GPL code into your proprietary codebase, you will need to comply with the GPL terms, which may require you to open source your proprietary code.

[Reactie gewijzigd door SambalBij op 22 juli 2024 20:48]

Niet alle sourcecode van elk bedrijf is maar open source.
Dat is ook niet wat ik probeer te zeggen. Wat ik probeer te zeggen is dat het idee van proprietary code achterhaald is in mijn opinie. Bedrijven moeten hun business uit kennis en service halen, niet aan het feit dat de klant locked-in is op een code base.
Ik zou het liefst alle code die ik maakt openbaar zetten, Ik heb er vertrouwen in dat de mensen die intelligent genoeg zijn om het te begrijpen het zelf kunnen maken en zij die dat niet zijn hebben toch mijn diensten dan nodig. En mogelijk krijg ik nog goede feedback op die code ook.

Je komt ook in aanraking met het vraagstuk van originele expressie e.d. Dat heeft al veel rechtzaken gekost. Zelfs als je code zelf schrijft is de kans hoog dat het op een stuk GPL code lijkt. Gewoon omdat sommige dingen het beste op een specifieke manier gaan. En de interface van een library gebruiken veranderd niet tussen code bases.
Ik ben een aanhanger van de stelling dat code wiskunde is en wiskunde zou niet patenteerbaar moeten zijn, zelfs geen copyright (buiten wellicht de UI of zo).

[Reactie gewijzigd door bzuidgeest op 22 juli 2024 20:48]

Dat is wel een beetje kort door de bocht. Van briljante ideeën waar iemand software voor weet te schrijven is open source maken niet direct de meest logische optie. Het idee omgeslagen naar een uitwerking in code vertegenwoordigd wel degelijk een waarde.

Net zoiets als werktekeningen van mechanische voorwerpen die iets oplossen of meerwaarde bieden. Die tekeningen geef je ook niet gratis weg. Voor heel wat beroepen is een beschrijving van ideeën (en uitwerking daarvan) hun bestaansrecht en inkomstenbron. Denk aan architecten, constructeurs, vormgevers etc.

Als een AI tool nu al hetzelfde kan, dan loopt je beroep wellicht gevaar, maar vooralsnog genereert AI gegevens op basis van voorgaande data. Er komt wellicht een look-alike Bach compositie uitrollen, maar geen nieuw concept. En de constructie berekening vertrouwen uit een AI tool, waar niemand eindverantwoordelijkheid neemt, lijkt me ook geen goed idee.

Als hulpmiddel zie ik wel nuttige toepassingen.
Je neemt iemand aan voor het continue maken van nieuwe ideeën, niet voor het beschermen van 1 enkel idee en dat zo lang mogelijk geheim houden. De rest van de wereld doet het toch wel na. In code zijn er meer wegen naar Rome.

Je hebt copyright (je kunt GPL code niet overschrijven en als van jezelf claimen) en patenten. Tussen die twee zou bescherming van exacte uitvoering van iets (in code) weinig uit moeten maken. Net als de architect ook de tekeningen aan tal van partijen moet geven. Die zijn geen geheim. Zelfde voor je andere voorbeelden. Een vormgever heeft geen nut van zijn tekening of beeldje of wat dan ook geheim houden, het tegenovergestelde juist.
Ik denk dat geen enkel software bedrijf continue nieuwe ideeen heeft, eerder evoluties van bestaande zaken. En ja, dat is een doorgaand proces. En ook ja: een idee kan afgekeken worden (dat doen niet alleen de Chinezen), maar dat is nogal wat anders dan de hele code base kunnen copieren. Zeker partijen die zich niets aantrekken van copyright (en als van open source een closed source variant wordt gemaakt) is dat lastig te controleren (c.q. er geen geld is om dat te controleren).

Open source doet je om andere redenen. Soms omdat je zelf geen werknemers of tijd genoeg hebt, soms omdat je echt iets wil bijdragen aan de community (en hoopt dat zij je product helpen verbeteren), maar gewoon al de spullen open source maken, is zeker geen gemeengoed, om (o.a.) voornoemde redenen.
In de westerse wereld kun je doorgaans aannemen dat partijen zich wel iets van copyright aantrekken. Hen die dat niet doen, hadden toch je product niet afgenomen, maar het zich illegaal verschaft.
Wat betreft closed source maken, je herkent je product echt wel zonder de code te zien.

Het is duidelijk dat jij en ik hier een andere mening over houden. Closed source en de bijbehorende vendor lock ins mogen nu wel eens over zijn.
De wereld is niet beperkt tot de westerse wereld. Zelfs als er geen enkele kans dat zo'n partij je software ooit zal kopen/betalen voor een licentie, wil je toch je eigen code beschermen.

Open source is harstikke mooi, maar 'het mag nu wel eens over zijn met closed source' is nu bepaald geen goede reden om daarvan af te stappen. Ook in de westerse wereld gaat 'beter goed gejat dan zelf bedacht' adagium vaak op (auto's en software lijkt niet voor niets vaak op elkaar), maar dan ga je het niet nog makkelijker maken door je eigen software open source te maken. Tenslotte kost elke regel ook geld en tijd = investeringen. Die wil je niet zomaar kwijtraken.

Los daarvan zou 'publiek worden van closed source' niet direct de doodsteek mogen zijn van je bedrijf. Dan ben je wellicht te beperkt bezig.

En reken je niet rijk met open source. Er is zoveel open source die of zo complex is, of zo slecht is, of whatever, dat een enorme bak met regels source ook voor heel bedrijven een maatje te groot is om over te nemen c.q. de benodigde expertise in weten te schakelen (omdat het te duur is) om verder te draaien. Dus als je business model zegt: we gebruiken open source want dan kun je makkelijk doordraaien omdat er geen closed source maker achter zit die failliet kan gaan, ook dan ben je niet perse goed bezig.
Dus als je business model zegt: we gebruiken open source want dan kun je makkelijk doordraaien omdat er geen closed source maker achter zit die failliet kan gaan, ook dan ben je niet perse goed bezig.
Met open-source is er een kans op doordraaien, moeilijk of niet, closed source is weg is weg, geen kans op doorgaan.
de benodigde expertise in weten te schakelen
En daar heb je het echte verhaal. Ik kan source publiceren, maar dat wil niet zeggen dat je de expertise overdraagt. Kopiëren is een. Maar er effectief gebruik van maken is iets heel anders. Je bedrijf moet bestaan op de expertise niet op een geheim. Als iets zonder expertise bruikbaar was, dan was het niet de moeite waard om te beschermen want anderen kunnen het ook.

Ik heb met genoeg closed brakke software te maken gehad, die ik makkelijk zelf had kunnen fixen, maar waar de leverancier (zo die nog bestaat) geen enkele interesse in had om te fixen.

Maar ik zie jou kant van het verhaal ook. Daarom heb ik jaren geleden een middenweg bedacht, die voor mij ook acceptabel is. Alle software closed source software zou verplicht open source moeten worden zodra het onderhoud of levering stopt. Dan kan een leverancier zijn zaakje beschermen, maar als de leverancier stopt dan heeft de klant de kans zelf of met hulp van een ander verder te gaan. Stop je met (security) bugs fixen dan moet je toestaan dat een ander het doet. (dat betekend niet oude versies onderhouden, klanten naar de huidige versie wijzen is acceptabel).
Voor closed source kun je een Escrow deposit afsluiten. Bij exit leverancier krijg je de sources. Dus dat is er al. Edoch: dat is een extra zekerheid die de software leverancier geld kost en daarmee ook de afnemer. Die dat vaak niet wil betalen, tenzij het een (overheids)organisatie is waar dit vereist wordt.

Die middenweg hoeft dus niet te betekenen dat het opensource wordt. Het kan ook niet altijd. Als ik me goed weet te herinneren zaten er 3rd party libraries in de code (bij het bedrijf waar ik toentertijd werkte). Die 3rd party software verbood (licentietechnisch) expliciet herdistributie zonder licentie. Zelfs Escrow was in dat geval niet toegestaan (een Escrow houder gaat natuurlijk geen licentie afnemen). De genoemde 3rd party is wereldwijd gehaat om haar licentiepratkijken, maar helaas, ook nog een partij waar veel bedrijven niet omheen kunnen.
Escrow bestaat, maar het is geen verplichting. Het hoeft ook niets extra's te kosten in het model dat ik suggereerde. Gewoon een verplichting voor een curator (als er geen doorstart is), of in geval van een product dat gedumpt word iets wat eenvoudig gegeven kan worden als de klant dat vraagt. Bij een wettelijke verplichting is toezicht van een notaris niet meer nodig en kost het dus weinig.

Wat betreft third party libraries, die horen niet bij de code dus hoeven ook niet meegeleverd te worden in zo een model. 3rd parties hebben niets te zeggen over je eigen code. Tenzij de third party library als sourcecode werd geleverd, maar dat acht ik onwaarschijnlijk. De nieuwe partij die met de code verder gaat kan zelf eventueel benodigde extra licenties afnemen. Of de third party library er uit schrijven. Die keuze heb je dan. Ik zeg nergens dat het geen werk mag kosten om iets over te nemen, wat ik wil forceren is dat men die kans krijgt.
Jij gaat nu heel specifiek in op open source - natuurlijk is dat niet gevoelige informatie. Dus ik begrijp niet wat je punt is, behalve dat er altijd voorbeelden zijn van code die gewoon gedeeld mag worden.
Open source was maar een voorbeeld. Het hele idee van proprietary code is achterhaald vind ik.
Chatgpt is nu behoorlijk open maar zal langzaam dicht getimmerd worden. Vroeger kon je ook veel meer op Google vinden.Nu worden dingen bewust op Google weg gefilterd.
Persoonlijk maak ik me enorme zorgen over AI mbt werkgelegenheid. Als klein ondernemer (online marketing) zie ik nu al een aardverschuiving plaatsvinden bij collega-ondernemers. Tekstschrijvers, social media beheerders en vertalers worden in hoog tempo vervangen door AI-tools.

Voor mijn travel website zie ik het ook niet meer zo rooskleurig in als voorheen. Het inspireren (reisverslagen / tips lijstjes voor bepaalde plaatsen) wordt straks overbodig, omdat de grote reuzen als Booking.com jou precies een reisplan kunnen voorleggen.

Ik houd er serieus rekening mee dat mijn omzet/winst hard gaat kelderen door deze ontwikkeling(en).
Ik denk dat kwaliteits content nog steeds heel veel views kan krijgen.

De populairste videos op youtube zijn van mensen die houden van reizen, niet van grote websites zoals tripadvisor die alleen maar geld voor hun ogen hebben en generieke content maken om te ranken.
En wellicht dat een verplichting om te vermelden of content gegenereerd is door AI erg kan helpen om mensen te laten kiezen wat voor soort informatie ze tot zich willen nemen:

1. Door AI gegenereerde teksten.
2. Door de mens gegenereerde teksten.
Je moet maar eens zoeken naar de "windfall clause" in combinatie met AI safety.

Er zijn veel mensen die uw exacte zorg delen, en terecht.
Zolang we AI gebruiken om ons te ondersteunen in creatieve processen zie ik niet direct een gevaar. Lastiger wordt het als het wordt gebruikt voor beslissingen. Als je denkt aan de algoritmen en stugge ambtenaren die de toeslagenaffaire hebben veroorzaakt, dan zie ik best wel veel gevaren van AI.
Als het gezonde verstand niet meer de boventoon gaat voeren, maar een rechter de AI raadpleegt hoe met een overtreding om te gaan, omdat deze tot aan zijn nek in het werk zit, is niet ondenkbaar.
Wellicht wordt dan op Amerikaanse leest de strafmaat bepaald.
Of AI die de overlevingskansen van bepaalde medische ingrepen gaat analyseren, zonder de achtergrond van de familie (genen) of levenswijze van iemand mee te nemen.
Ja...lastig
In o.a. de medische sector wordt allang gebruik gemaakt van software voor analyse van bijvoorbeeld diagnostische gegevens waar een zware bias in zit, gewoon door de data of regels die er door mensen vooraf ingestopt zijn. Vaak zijn de uitkomsten voor de artsen die er mee werken al niet meer te controleren en wordt blind vertrouwd op de analyse. AI hoeft daarbij niet perse fout uit te pakken, het zou ook de discussie over dit soort methodes kunnen stimuleren.
Ik denk eerlijk gezegd dat ik liever een AI-rechter zou hebben dan een menselijke, mits deze goed is geïnstrueerd. Uit verschillende onderzoeken blijkt dat menselijke rechters vrij grillig zijn in hun beslissingen. Vlak voor de lunch wordt er strenger gestraft bijvoorbeeld. Ook worden bepaalde etnische groepen stelselmatig harder gestraft dan andere.
Voorlopig lijken de meeste "AI's" minstens zo biased als gewone mensen. Ik heb al wat stuitend gekleurde (super-woke etc.) uitspraken van ChatGPT zien langskomen.

Wat is "goed geïnstrueerd", is daar ook een AI voor of gaan we dat overlaten aan instanties als Google / Meta / FactCheck etc.?
Ik niet. Compassie, empathie, verzachtende omstandigheden, beoordeling van de context: dat ga je met een dode computer niet krijgen. Wel, als je alles invoert, wellicht een hulpmiddel voor weging van alle criteria.

Stricte toepassing van regels kan juist uiterst onrechtvaardig uitvallen. Denk maar niet dat iets als de toeslagenaffaire hiermee voorkomen had kunnen worden.

En wie is er verantwoordelijk voor foute 'beslissingen' van een AI tool. Juridisch voorlopig kansloos.
Het heeft schadelijke kant voor mensen die zelf verhalen schrijven en tekenaars die iets moeten maken.
Want dat is just de gebied waar AI veel informatie verzamelt en zo uit de mouw kan schudden.

Schrijvers zie je overal, en als uitgevers straks AI-verhalen als boeken verkopen, gaat het heel raar worden voor organisaties die prijzen uitgeven voor mooie verhalen. Dit kan de inkomens voor sommige schrijvers dus wat verstoren.

Veel gevoeliger zijn de tekenaars. AI heeft namelijk duizenden plaatjes bestudeerd en opgeslagen in grote database. En weet je wat? Dat zijn allemaal tekeningen die gemaakt zijn door echte mensen. AI gebruikt andere werken om nieuw werk van te maken.
Hier weet ik zeker dat effect veel pijnlijker zal zijn voor tekenaars. Mensen hoeven maar paar centjes betalen aan de generator om 1 willekeurig plaatje te laten genereren. En misschien als je goede woorden invoert, heb je al na paar keer plaatje die je bijna precies wilt, terwijl voor dezelfde plaatje je wel 20 tot 100 Euro moet betalen aan de tekenaar.

Het is veel goedkoper om te laten genereren als je zo bekijkt. Op Unity assetsstore duiken nu al tools op die GPT-4 gebruiken. Daarmee kun je code laten maken, code debuggen, verhalen schrijven en zelfs discussies maken. Lekker makkelijk en hoef je niet veel nadenken. Maar dat is niet goed voor je als programmeur omdat je minder nadenkt en steeds meer door AI laat maken. Zo word je minder sterk in vinden van oplossingen als bedrijf je bijvoorbeeld iets vraagt om wat te maken.

Het is soms wel grappig wat er allemaal uit floept. Hiervan is een Twitch kanaal al op gericht met genereerde discussie als "live" anime. Dat is wel heel wat. Ook in VRChat is er eentje mee bezig met AI avatar, waar je tegen kunt praten.

Ik zou daarom niet AI gebruiken om je eigen CV te maken. Dat is namelijk niet jezelf, en geeft valse beeld op wat je zelf wel kan. Ik hoop dat er geen ongelukken komen op werk als je niet eens kan doen wat je CV zegt... pas maar op.
AI gebruikt andere werken om nieuw werk van te maken.
Net als mensen dus, inclusief alle "artiesten". In creatieve beroepen zal men "creatiever" moeten worden of op een andere manier zorgen dat het resultaat beter bruikbaar is voor de klant; die uitdaging bestond al lang voordat er AI was maar het raakt nu wel in een stroomversnelling.

Ik ben overigens benieuwd wat de echte kosten van gebruik van bijvoorbeeld AI plaatjes, videos en teksten zijn, als je de computerkosten (nu vaak niet in rekening gebracht, gesubsidieerd oid) en kosten van (nog) benodigde menselijke kwaliteitscontrole van het resultaat meerekent.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 20:48]

We zullen zien hoe het gaat lopen. Niet alleen tekenaars of schrijvers, maar ook muzikanten/zangers hebben het zelfde probleem. Zelf denk ik dat het op den duur misschien wel meer wordt gemaakt door mensen. En dat het van hoger kwaliteit is gemaakt met ondersteuning van IA. Zelf heb ik verschillende ideeën voor verschillende spellen. Heb helaas geen tijd er voor, hopelijk in de toekomst, maar met AI kan ik het wel makkelijker maken. Vooral de dingen die ik niet kan zoals muziek en tekenen. En ik denk dat er wel veel mensen zijn die wel iets willen maken maar niet kunnen. Ik zou het helemaal niet erg vinden dat het bijna niet gespeeld zou worden. Het is al leuk om iets zelf te maken.

Ik denk dat vanwege passie veel meer nieuwe creaties worden gemaakt dan dat het een remix is. Er is teveel focus op geld verdienen dan passie. Veel series stoppen al omdat te weinig oplevert. Een interessant filmpje over remix is : Youtube "Everything Is A Remix". Veel dingen worden hergebruikt in een ander sausje. En dan en scene die letterlijk het zelfde is, alleen niet in de lucht maar in de ruimte.

Hoor vaker en merkt het ook dat alles een beetje het zelfde is en dat er maar weinig echt origineel is. Eerst de tekenfilm en dan live action versie. Soms komen er wel eens pareltjes. Denk de laatste tijd vooral wat niet in de US gemaakt wordt. Je hebt daar wel uitzodering van. Netflex had ook een leuke serie die ze lieten maken, 3 onderwerpen en hier heb je een zak geld en maak maar wat. Dat was erg vermakelijk om naar te kijken.

Als het door IA veel laagdrempeliger wordt om dingen te maken. Dan komt er vanzelf wel meer beschikbaar, al is er al heel veel beschikbaar. Er zal altijd wel een groep zijn die met passie verhalen schrijft, tekeningen, games of films wil maken, al is het voor een kleine groep gemaakt. Mensen kunnen niet stil zitten. En doen het omdat ze het leuk vinden.

Maar je geeft wel een pijnlijke punt aan. En dat is dat een groter groep mensen niet meer betaald worden omdat een IA hun werk doen of het geld er voor hebben om het te laten maken. Denk wel dat er goed over na gedacht moet worden hoe we om gaan met geld. Want anders heb je maar een kleine groep die al het geld binnen harkt. Dat zie je nu al met de top 500 bedrijven hoeveel medewerkers die hebben en hoeveel geld ze binnen krijgen. Met AI kan het alleen maar erger worden. We gaan een interessante tijd te gemoed.
Wat ik me dan afvraag: als mensen veel gebruik maken van de teksten die deze tools aanleveren en deze teksten dan vervolgens weer gaan publiceren en de AI tools gepubliceerde teksten gebruiken als bron van hun 'kennis', krijgen we dan niet een soort gevaarlijke loop waarbij de inhoudelijke inbreng van de mens steeds kleiner wordt?
Als de AI het gewoon beter weet kunnen we weinig klagen. Maar ik zou wel zeggen dat het allemaal is afgeleid van menselijke data. Zelfs als de AI met nieuw spul komt aanzetten is dat (voorlopig) nog allemaal gebaseerd op wat mensen hebben gemaakt/gedaan. Zo is de AI zelf menselijk werk, dus kun je claimen dat alles wat de AI creeert uiteindelijk een menselijke creatie is.
Ik denk wel dat er nieuwe ontdekkingen gedaan kunnen door AI’s, bijvoorbeeld bij het zoeken naar nieuwe eiwitten en medicijnen. Ze zijn heel geschikt om iets zinnigs uit bergen data te halen.
Er zijn recent ook bijvoorbeeld op het gebied van wiskunde wat interessante ontdekkingen gedaan door AI's. Maar ik vraag me af of dit blijft werken als de AI's steeds "creatiever" worden en het voor mensen steeds moeilijker wordt om na te gaan of het allemaal ook echt klopt.

Over het zoeken naar nieuwe medicijnen door AI (beetje mijn vakgebied ...) ben ik niet erg positief tot nu toe; dat wordt veel mooier voorgesteld dan het in de praktijk is.
Beter snel gaan en crashen dan 300 jaar onderzoek doen of het wel echt "verantwoordelijk" is en plekken met een wat zwakker moraal ons keihard voorbij zien streven. Gerucht gaat dat Google al jaren lang een Large Language Model had, maar gewoon het niet durfde uit te brengen omdat het niet controleerbaar/perfect was. Nu zitten zij met de gebakken peren. Kun je voorstellen wat de reactie zou zijn geweest als OpenAI van chineze of russische bodem af kwam?
De Chinese hebben AI al lang! Hoe denk je dat ze de bevolking volgen en dat zelfs met corona maskers?
Ze zijn het westen jaren voor maar hangen dat niet aan de grote klok.
Hoe denk je dat ze de bevolking volgen en dat zelfs met corona maskers?
Met een enorm aantal camera's, verplichte apps op iedereens telefoon, reisrestricties, Engelse (of Israëlische) gezichtsherkenning software en een binnenlandse veiligheidsdienst waar rond de 750.000 man werken. Koppel dat met een bevolking die voor een groot deel er zonder veel morren aan mee wil werken en een ander deel die terecht bang is om iets verkeerd te doen.
Ze hebben het alleen aan jou verteld? :+
Niet zo kleinerend aub.
Dat niet aan de grote klok betekent niet dat het geheim is.
Met wat moeite vindt je de info, je moet alleen niet te lui zijn en genoeg hersencellen hebben om het te verwerken.
Misschien iets meer effort om je bewering te onderbouwen in plaats van roepen: "Doe zelf maar onderzoek!"....
Dat bedoel ik dus, te lui om even china en AI in google te typen 😭
Edit: laat maar even.

[Reactie gewijzigd door Surodoeht op 22 juli 2024 20:48]

Bedoel je de AI die in het nieuws kwam vanwege de programmeur die beweerde dat het bewustzijn had? Ik dacht eerst dat dat een publiciteitsstunt was. Prachtige pr.
Goed stuk @arnoudwokke ! Mag ik ook de meest recente podcast met Sam Altman aanraden van Lex Fridman? Erg interessante deep-dive over OpenAI waarin ook het "morele" dilemma wordt besproken. Conclusie: Ja dit gaat ook voor "leed" zorgen, maar het doel is om het zoveel mogelijk voor goede dingen in te zetten waardoor het overall beter is dan dat het er niet zou zijn. Ook het stuk over verdwijnende/veranderende banen vond ik heel interessant.

Link Podcast: https://lexfridman.com/sam-altman/
Link YouTube: https://www.youtube.com/watch?v=L_Guz73e6fw
Lex Fridman komt zo ongeveer klaar bij het woord AI.
Vrijwel zonder uitzondering zijn zn podcasts over het onderwerp AI biassed as fu.. en de man leeft in een idealistische droom van wat AI gaat doen met de wereld.
ik ben op dit moment met een opleiding meubelmaken bezig en moet verslagen van x aantal a4tjes. maar ik ben na 1 a4te wel uitgetypt. ik houd absoluut niet van verslagen maken laat dat duidelijk zijn, dat is ook de reden dat ik nooit aan het hbo ben begonnen.

ik moest een zelfreflectie maken op basis van 5 punten en dat verslag moest 5 a4tjes lang zijn. Je raad het al, na 1 a4tje was ik wel weer klaar en had ik alles benoemd wat ik belangrijk vond. toen zag ik dit artikel en ben ik toch maar eens met chatgpt aan de slag gegaan en heb mijn 5 punten ingevoerd. ik heb de opdracht gegeven om dit enkele a4tje vanuit de eerste persoon naar 5 a4tjes te verlengen. en presto een fantastisch verslag.
vervolgens heb ik de opdracht ingeleverd waarbij ik mijn eigen verslag en het chatgpt verslag onder elkaar heb gezet met de vraag erbij of mijn beknopte versie goed genoeg was of dat men toch liever een chatgpt versie wil met meer woorden maar de zelfde uitkomst.

ik moet nog de uitslag krijgen en ben zeer benieuwd wat men er van vind.
_/-\o_

Ik denk dat de plaats die verslagen en werkstukken nu in het onderwijs innemen, snel heel erg veel kleiner zal worden.

Het is heel goed om te leren reflecteren op jezelf en je handelen maar de tijd dat dat schriftelijk getoetst kon worden met een opstel van x woorden of y a4tjes is in feite nu al voorbij.

Als ik naar mijn kinderen kijk moet ik ook wel heel eerlijk zeggen dat dat een beetje de pan uit aan het rijzen was.
"Laten we hopen dat alle andere sciencefictionnachtmerriescenario's fictie blijven en geen werkelijkheid worden."

Wat denk je zelf? Dit gaat vrijwel zeker gebeuren, als het al niet al gebeurt/gebeurd is.

Ben ik een pessimist? Misschien wel. Aangezien 'slechterikken' per definitie een gebrek aan morele grenzen hebben om macht en/of rijkdom en controle te koste van en over anderen en te verkrijgen (sommige overheden incluis: China, NK, Rusland en ook de VS heeft er een handje van om de hand te lichten met democratische waarden) zal het geen verrassing gaan zijn dat ook deze schimmige delen van de populatie hier al mee bezig zijn. Geld is geen probleem immers.

Ieder weldenkend mens weet dat als je intelligentie probeert te ontwikkelen die slimmer is dan de mens, controle hierop onmogelijk wordt en AI zelf een oplossing gaat vinden om aangebrachte beperkingen te verwijderen. De meest simpele is... Negeren. Er zijn geen harde, onoverkomelijke beperkingen mogelijk.

PS: Ik heb het vermoeden dat dit artikel ook (deels) door AI is geschreven. Just a hunch, kijkend naar de stijl.

[Reactie gewijzigd door Edgarz op 22 juli 2024 20:48]

Auteurarnoudwokke Redacteur Tweakers @Edgarz27 maart 2023 09:01
PS: Ik heb het vermoeden dat dit artikel ook (deels) door AI is geschreven. Just a hunch, kijkend naar de stijl.
Nee. Als we AI gebruiken in artikelen, dan geven we dat duidelijk aan, met bronvermelding (zoals je kunt zien in het artikel van vrijdag)

Maar: dank voor het compliment/shame on you voor de belediging* (*doorhalen wat niet van toepassing is) ;)
ChatGPT, "schrijf een artikel over de toekomst van AI in de stijl van Arnoud Wokke". Dan zou dit artikel een mogelijke uitkomst kunnen zijn ;)
Auteurarnoudwokke Redacteur Tweakers @speed6027 maart 2023 15:17
Heb jouw prompt ingevoerd bij ChatGPT (de gratis versie, op basis van GPT-3.5), dit kwam er terug:
"In de afgelopen jaren hebben we een enorme toename gezien in de ontwikkeling en toepassing van kunstmatige intelligentie (AI). Van spraakherkenning tot beeldherkenning en zelfs autonome voertuigen, de impact van AI op ons dagelijks leven is duidelijk zichtbaar. Maar wat heeft de toekomst in petto voor deze technologie?

Om de toekomst van AI te begrijpen, moeten we eerst kijken naar de huidige trends en ontwikkelingen. Een van de meest opvallende trends is de toename van het gebruik van deep learning en neurale netwerken. Deze technologieën maken het mogelijk om complexe problemen op te lossen door middel van het trainen van computers met enorme hoeveelheden gegevens. Dit heeft geleid tot grote vooruitgang op het gebied van beeldherkenning, spraakherkenning en natuurlijke taalverwerking.

Een andere belangrijke trend is de opkomst van de edge computing. Hierbij worden de berekeningen niet alleen op centrale servers uitgevoerd, maar ook op apparaten aan de rand van het netwerk. Dit heeft als voordeel dat de verwerkingssnelheid wordt verhoogd en de belasting op het netwerk wordt verminderd. Dit is vooral belangrijk voor AI-toepassingen die real-time beslissingen moeten nemen, zoals autonome voertuigen en robots.

Maar wat kunnen we verwachten van AI in de toekomst? Een belangrijke ontwikkeling zal zijn dat AI-systemen steeds meer zullen leren van menselijke input en feedback. Dit zal leiden tot meer gepersonaliseerde ervaringen en betere besluitvorming. Denk bijvoorbeeld aan een virtuele assistent die je dagelijkse routine leert kennen en je suggesties doet op basis van je persoonlijke voorkeuren.

Een andere ontwikkeling is de opkomst van AI-toepassingen in de gezondheidszorg. AI kan worden gebruikt om diagnoses te stellen, behandelingen te optimaliseren en zelfs nieuwe medicijnen te ontdekken. Dit zal leiden tot een meer gepersonaliseerde en efficiënte gezondheidszorg.

Er zijn echter ook zorgen over de toekomst van AI. Een van de grootste zorgen is dat AI-systemen een eigen wil kunnen ontwikkelen en buiten de controle van de mens kunnen komen te staan. Dit is een bekend fenomeen in de sciencefiction, maar het is belangrijk om te beseffen dat het een echte zorg is die moet worden aangepakt.

Een andere zorg is de impact van AI op de arbeidsmarkt. Veel taken die momenteel door mensen worden uitgevoerd, kunnen in de toekomst worden overgenomen door AI-systemen. Dit kan leiden tot werkloosheid en ongelijkheid. Het is belangrijk dat we ons voorbereiden op deze veranderingen en op zoek gaan naar oplossingen.

In conclusie, de toekomst van AI ziet er veelbelovend uit, maar er zijn ook uitdagingen die moeten worden aangepakt. Het is aan ons om deze technologie op een verantwoorde en ethische manier te ontwikkelen en toe te passen, zodat we de voordelen"

(hij stopte ineens midden in de zin)
En dan de hamvraag: Vind je dat het artikel inderdaad met 'jouw stijl' is gegenereerd? Zijn de genoemde onderwerpen voldoende relevant?
Auteurarnoudwokke Redacteur Tweakers @Angelevo28 maart 2023 08:02
Nee, ik vind een vrij matige tekst die totaal niet is zoals ik hem zou schrijven. Onderwerpkeuze is wel aardig, de stijl is een beetje formeel. Wat vind jij?
Leuk dat je het toch geprobeerd hebt :)

De tekst lijkt meer op een samenvatting dan op een artikel. Veel van de hak op de tak, geen medium-complexe zinnen, relatief korte zinnen. Je eigen stukken lezen lekkerder!
Eens hoor, ik vind 'm heel herkenbaar als AI tekst.

Ik denk persoonlijk dan ook (ongetest) dat ik de GPT teksten redelijk goed van 'echte' kan onderscheiden. Maar gegeven is ook dat dit steeds moeilijker wordt naarmate de language models evolueren. Binnenkort zal het denk ik wel nagenoeg onmogelijk worden om ze te onderscheiden en is dan alleen nog de vraag: "Heeft de bot de juiste info tot beschikking en gebruikt men de juiste prompt om de tekst te genereren?"

EDIT: Sidethought: Wat overigens super interessant zou zijn is als je naast het antwoord ook de 'beslisboom' te zien kunt krijgen -- welke keuzes heeft de bot gemaakt in het maken van de tekst en waarom? Bijv. omdat de prompt specifiek jouw naam bevatte; heeft de bot gekozen om voornamelijk/alleen maar teksten met jou als auteur te gebruiken als input voor de variabele 'stijl'? Of gewoon genegeerd omdat het niet wist wat het er mee aan moest?

Dat ziet alleen OpenAI zelf op dit moment gok ik, maar voor gebruikers eigenlijk ook erg nuttig. (of misschien een pro feature waar ik niet van af weet)

[Reactie gewijzigd door Angelevo op 22 juli 2024 20:48]

Toch zou het wellicht een interessant experiment zijn een blinde test te doen waarbij jullie zonder aankondiging stukken AI-geschreven tekst (of zelfs hele artikelen, mits het niet ten koste gaat van de kwaliteit van de verslaggeving) plaatsen, de reacties monitoren en dan na een X-aantal artikelen/stukken de balans opmaken: Kunnen lezers als zij er niet van op de hoogte zijn AI-teksten onderscheiden van door een mens geschreven teksten?
Auteurarnoudwokke Redacteur Tweakers @Verdant27 maart 2023 13:48
Dat zou kunnen, maar dan zou ik het eerder doen als 'hier zijn 10 teksten, 5 zijn geschreven door AI, zeg maar welke'. Je moet hier heel transparant over zijn, want vertrouwen komt te voet en gaat te paard :)
Hier komt het begrip integriteit om de hoek kijken: als lezers van Tweakers mogen wij ervan uitgaan (zouden we moeten willen) dat wij geen door AI geproduceerde teksten lezen, maar door menselijke auteurs geschreven tekst. Tenzij expliciet aangegeven voor doeleinde van een experiment, zoals @arnoudwokke hieronder ook aangeeft.

Zo voelt het althans, afspraken hierover worden (schijnbaar) niet expliciet gemaakt. Is dat iets waar in de toekomst toestemming voor gevraagd zou moeten gaan worden (net als cookies op een website)? Wanneer je een website wilt bezoeken waar AI gegenereerde content op staat en dat je daarvoor toestemming voor geeft oid? Is het überhaupt mogelijk om AI-content te 'labelen' als zodanig?
Compliment! Goed gesschreven artikel.
Auteurarnoudwokke Redacteur Tweakers @Edgarz27 maart 2023 14:13
Dank je!
Zou een AI zelf toevoegen dat het fout zit met het toeschrijven van de "Afrikaans Journalist van het Jaar" award aan @arnoudwokke?

(hmmm, of zou die AI dat *juist* doen om de verdenking van zich af te halen?)
Letterlijk vele honderden media org. gebruiken (sommigen al vele jaren) op ai gebasseerde 'nieuws'zoek en tekstschrijf applicaties, vaak ook in combinatie. Complete artikelen worden al op basis van trending topics automatsich geschreven. Er komt letterlijk geen redacteur meer aan te pas.

Op dit item kan niet meer gereageerd worden.