OpenAI-ceo dreigt te stoppen met ChatGPT in EU om nieuwe wetgeving

OpenAI's ceo Sam Altman dreigt in de EU te stoppen met OpenAI's diensten, zoals ChatGPT, als bepaalde voorstellen van het Europees Parlement worden aangenomen. Het parlement wil meer wetgeving rondom generatieve AI, zoals ChatGPT.

"De details zijn echt belangrijk", zegt Altman volgens de Financial Times over de voorstellen van het parlement. "We zullen ons best doen om aan de wetgeving te voldoen, maar als dat niet lukt, zullen we stoppen met het aanbieden van onze diensten in de EU."

Met zijn uitspraken reageert hij op de AI Act. Dat wetsvoorstel van de Europese Unie moet onder meer de veiligheid van kunstmatige intelligentie in de EU waarborgen. Aanvankelijk ging de Act om kunstmatige intelligentie in het algemeen, maar het Europees Parlement stelde onlangs voor om ook specifieke wetgeving te maken rondom foundation models die generatieve AI gebruiken.

Volgens die nieuwe voorstellen zouden generatieve-AI-makers, zoals Google en OpenAI, verplicht zijn om de risico's van hun technologie in kaart te brengen en te beperken. Daarbij zouden ze deels verantwoordelijk worden voor hoe hun AI-systemen worden gebruikt. Ook moeten ze onder het nieuwe voorstel duidelijker maken welk auteursrechtelijk beschermd materiaal ze hebben gebruikt om hun generatieve-AI-modellen te trainen. Daardoor zouden rechthebbenden beter compensatie kunnen aanvragen.

Altman zegt veel zorgen te hebben over de voorstellen van het parlement, die overigens nog door onder meer de Europese Commissie moeten worden behandeld. Het is niet duidelijk waar de OpenAI-ceo zich precies zorgen over maakt. Altman zei eerder nog dat AI-wetgeving 'essentieel' is, maar dat er ook ruimte moet blijven voor innovatie. Googles ceo Sundar Pichai heeft hetzelfde standpunt en was woensdag in Brussel om met beleidsmakers te spreken, waaronder met Eurocommissaris Thierry Breton. Zij willen samen 'een informeel AI-pact' met richtlijnen opstellen, in afwachting van de AI Act.

Door Hayte Hugo

Redacteur

25-05-2023 • 15:17

257

Lees meer

Reacties (257)

257
253
114
19
0
118

Sorteer op:

Weergave:

De voorstellen klinken niet zo gek eigenlijk. Laat het ze maar uitvechten.
Het klinkt inderdaad niet gek. Er zitten gelijk al meerdere slechte gewoonten in hoe AI nu ontwikkeld wordt. Onder andere het innemen van alle publieke informatie, ongeacht auteursrecht of instemming. OpenAI wil dat vast graag zo houden maar dit was nooit redelijk.

Zoals bij elke nieuwe techniek probeert de markt zoveel mogelijk de normaal te bepalen voordat de overheid er goed en wel bij is. Dan kunnen ze doen alsof de overheden onnodig streng zijn en enorm in de weg zitten, in plaats van dat zij zelf onverantwoordelijk zijn. Dus het gaat om de gewenste framing, het volk meekrijgen, en meer anti-overheidssentiment kweken.

Ik hoop dat de AI-makers allemaal zorgvuldig moeten gaan omschrijven wat ze doen en hoe, met welke data, dat ze goedkeuring en instemming moeten hebben voor die data, en dat deze systemen alleen gebruikt kunnen worden waar dat echt nuttig of nodig is. En niet zomaar voor alles, op elke manier.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:23]

Ik hoop dat de AI-makers allemaal zorgvuldig moeten gaan omschrijven wat ze doen en hoe, met welke data, dat ze goedkeuring en instemming moeten hebben voor die data, en dat deze systemen alleen gebruikt kunnen worden waar dat echt nuttig of nodig is. En niet zomaar voor alles, op elke manier.
Ik ben een AI bouwer. Als ik voor elk stukje tekst dat ik in mijn AI ga stoppen moet gaan uitleggen waarom ik dat doe, dan kan ik beter gewoon stoppen met het bouwen van AI. De kracht achter AI zit hem in het indexeren, classificeren en kunnen reproduceren van grote blokken ongestructureerde data. Noem het een bibliotheek met een brein dat precies weet waar alle boeken staan en met de informatie die je aanlevert een idee kan geven wat de tekst zou moeten zijn. Wat ik vaak hoor is dat mensen in een grote hooiberg genaamd "AI" specifiek gaan zitten zoeken of ze een ijzeren naald kunnen vinden, om dan de bouwer van de AI aan te klagen voor plagiaat.
Waar Altman op doelt is het feit dat Foundation models onder de noemer "hoog risico-modellen" gaat vallen. Dat is een classificatie die gelijk staat aan gezicht scanners en spionage artikelen. Software waarbij je moet kunnen aantonen dat ze niet de Europese waarden kunnen schenden, en waarbij je een keurmerk moet hebben die jaarlijks opnieuw moet worden gekeurd. Dat is vergelijkbaar met iemand een enkelband aan zijn voet hangen wetende dat als hij buiten de cirkel komt, hij per direct wordt neergeschoten omdat het een gevaar voor de volksgezondheid betreft. Op de manier zoals nu is beschreven, zal elke leverancier van AI (ook de open-source varianten) zichzelf moeten beschermen tegen de eindgebruiker die "mogelijk" een risico kan vormen voor het behoud van het keurmerk. Er is een reden dat Bard nog steeds niet in Europa beschikbaar is...
TL:DR; doodsteek voor AI in Europa.
Collega-"AI-bouwer" hier (lege term, IMO, maar goed). Er is een verschil tussen "elk stukje tekst dat je gebruikt uitleggen" en de due dillegence te doen inzake copyrighted materiaal en user-sensitive data. Het gevaar is, zoals anderen al aangaven, dat het concept van copyright totaal verwaterd. Als ik een model train op copyrighted boeken, en iemand gebruikt het model om een verhaal zoals Harry Potter in de stijl van JK Rowling te schrijven, en er komen praktisch copy-paste secties terug uit de originele boeken, is dat dan oké? Of een real-life voorbeeld, toen Github Copilot juist werd vrijgegeven werd het al snel duidelijk dat het model soms contact informatie reproduceert waarop het getraind was, bv. Wanneer je vroeg "genereer een HTML-contactpagina" waar dan echte emailadressen en verwijzingen naar echte github repos worden gegenereerd.

Over dat laatste kan je nog discussiëren (welke licentie had de code, mag github de code op haar platform zomaar gebruiken, etc.). Maar het blijkt een belangrijk punt. Het is niet oke dat grote bedrijven kunnen beslissen welke data zij gebruiken en bestaande regels inzake copyright en privacy in de wind kunnen slaan. Het is daarom ook belangrijk dat we naast de computer-science en taalkundige kant van language models ook ethische en wettelijke experts sterk betrekken bij deze evolutie in het AI landschap.
Mooi dat men zich op dit forum ook druk gaat maken over copyright. Tot voor kort werd dat maar onzin gevonden. Of is het alleen maar onzin als we zelf content gratis willen downloaden maar geen onzin als anderen er misbruik van maken?
Copyright is een ingewikkeld concept. Maar het allerbelangrijkste verschil van de argumenten hier is volgens mij, dat als bedrijven copyrighted materiaal van derden gaan gebruiken, ze hier een commercieel doel mee hebben.

Ofwel, als jij iets maakt en je geeft dat aan mij om te nuttigen is dat een ding, maar als ik dat vervolgens ga gebruiken om winst te maken, dan vind jij (terecht) dat jij op z'n minst deels recht hebt te delen in die winst.
"Commercieel doel" is doorgaans niet relevant voor auteursrechten. Sommige niet-commerciële doelen zijn expliciet uitgezonderd, zoals recensies. Maar behoudens die specifiek genoemde uitzonderingen is het doel irrelevant.

Er is bovendien een ander iets wat speelt: AI training is simpelweg niet voorzien in het auterusrecht. En dan val je terug op de algemene regel dat alles is toegestaan wat niet verboden is.
Je hebt natuurlijk gelijk, al denk ik dat AI training niet (specifiek) voorzien zijn in de wetgeving/regelgeving even irrelevant is. Je hebt dan immers nog steeds het recht tot gebruik niet.
Waar haal jij een "recht tot gebruik" vandaan? Dat bestaat simpelweg niet. Het Auteursrecht creëert een recht op vermenigvuldiging en openbaarmaking, niet op gebruik. Sterker nog, gebruik is dusdanig vanzelfsprekend dat een tijdelijke vermenigvuldiging voor gebruik toegestaan is, wanneer dat technisch beter uitkomt. Denk dan aan browser caches etc.
80 rijden midden in de nacht op een vijfbaans snelweg is ook onzin, toch doe ik het omdat ik geen zin heb in een boete. Misschien moet je het zo lezen.
Het is daarom ook belangrijk dat we naast de computer-science en taalkundige kant van language models ook ethische en wettelijke experts sterk betrekken bij deze evolutie in het AI landschap.
er zijn sinds de jaren 50 grofweg 3 denklijnen:
1) code = law
2) code needs comments
3) user needs software manual
Ik denk dat de TL:DR helemaal niet de doodsteek voor AI moet zijn, maar vooral een stuk bewust wording bij ons als AI of model-ontwikkelaars moet bijbrengen.
Je begint al met een goede beschrijving van het uitgangspunt van AI. Zet daar ook de bronnen en een omschrijving van het uiteindelijke doel bij en je bent al bijna klaar. Afhankelijk van waar de ontwikkelde AI voor gemaakt is en de mogelijkheden om na de ontwikkeling zelfstandig verder te leren, zal je er mogelijke controle bij moeten voegen. Een regelmatige controle van zelf lerende AI is helemaal niet slecht. Voor veel gebruikte AI ontwikkelingen die ook veel nieuwe input krijgen is een jaarlijkse controle zelfs onvoldoende. Dit zou variabel moeten zijn en naargelang de hoeveelheid nieuwe input ergens tussen maandelijks en jaarlijks moeten liggen.

Zelf ontwikkel ik wel modellen, die wel een zelflerende component kunnen hebben. Het zelflerende deel werkt echter alleen (of vooral) tijdens de validatie fase en de input is gecontroleerd. Na het voltooien van een model moet het reproduceerbare resultaten kunnen leveren. De zelflerende component is dan meestal uitgeschakeld, of werkt op de achtergrond aan een verbeterde versie die handmatig moet worden uitgebracht.
Ik denk dat de TL:DR helemaal niet de doodsteek voor AI moet zijn, maar vooral een stuk bewust wording bij ons als AI of model-ontwikkelaars moet bijbrengen.
Je begint al met een goede beschrijving van het uitgangspunt van AI.
Ik heb hier zelf een gemengd gevoel over. Enerzijds is het goed dat de politiek nu al meedenkt en niet als mosterd na de maaltijd met wetgeving komt. Anderzijds kunnen we nog lang niet voorspellen welke rol AI allemaal zou kunnen spelen. Immers, nu is AI onder andere de 'motor' achter een chatbot, maar misschien draait in de toekomst wel een gehele fabriek op AI zonder enige menselijke tussenkomst.

Wetgeving moet dus geen aannames doen, want daarmee beperk je mogelijk de ontwikkelingen. Plus, we hebben al tig wetten, bedoeld voor de mens. AI moet zich ook aan diezelfde wetten houden (denk aan wetten omtrent auteursrecht, valsheid in geschrifte, etc.) Bij AI ligt het uiteraard genuanceerder en gevoeliger, maar we moeten de ontwikkeling niet in de weg gaan zitten.
De huidige wetgeving werkt niet altijd. De auteursrechten regelen bijvoorbeeld niet het gebruik van digitale media voor trainen van AI.
Daar waar AI gebruikt wordt voor bijvoorbeeld opsporen van fraude, selectie voor banen en meer van dit soort discriminerende (in wiskundige zin) functies mag een AI-routine natuurlijk nooit gaan discrimineren in de wettelijke zin.
Tekst georiënteerde AI zoals ChatGTP mogen ook niet uit de hand gaan lopen en zullen geen opruiende of discriminerende teksten gaan produceren, producten aan- of afraden, aanzetten tot verkeerd gebruik van medicatie, promotie van onbewezen complot theorieën enz.

Wetgeving doet overigens nooit aannames, maar moet zo geschreven worden dat er een duidelijke lijn ontstaat tussen goed en fout. De wetgever moet wel aannames doen om in te schatten wat de gevaren zijn en of mensen op de een of andere manier schade kunnen oplopen. Kortom: onder welke voorwaarden mag iets wel of niet gebruikt worden en wie is verantwoordelijk voor verkeerde uitkomsten of verkeerd gebruik.
Wat je zegt: Als ik voor elk stukje tekst dat ik in mijn AI ga stoppen moet gaan uitleggen waarom ik dat doe, dan kan ik beter gewoon stoppen met het bouwen van AI.

Wat ik lees: Ik wil me niet aan de privacy en auteursrechtelijke wetgeving houden want dat is lastig, en veel werk.
Grappig alle AI bedrijven scrapen zonder toestemming te vragen websites zoals wiki's, wetenschappelijke websites, foto's, schilderwerken, artwork, forums etc. Daarnaast gebruiken ze jouw chat historie ook om hun model verder te trainen en te verbeteren. Ook jouw code wordt gebruikt als je bv copilot gebruikt. Dus de vraag mbt copyright vind ik niet meer dan terecht. Google werd ook aangesproken dat ze krantenartikelen scrapen zonder toestemming, De OpenAI, Google, Bloomberg en grote bedrijven hebben hun modellen niet open source gemaakt en ze vragen flinke knaken om hun api's te gebruiken....

[Reactie gewijzigd door invic op 22 juli 2024 15:23]

Op zich heb je wel gelijk, maar hoe handhaaf je dat? Met een AI model, heb geen 1:1 verband tussen het model zelf en de gegevens waarop het getraind is. Hoe wil je aantonen dat ze onrechtmatig gebruik hebben gemaakt van jouw informatie voor hun model?

Als ik de discussies over gevaren van AI hoor, dan zijn er twee categorieën:
1) Beinvloeding / Misinformatie ("deep fakes”). Die met AI nog makkelijker te generen zijn. Ik denk dat dit de reden is dat de EU wil dat aanbieders verantwoordelijk zijn voor gebruik/misbruik van producten. Misschien via een “watermerk” in AI gegenereerde content?

2) Autonome apparaten / wapens, waar we de controle over verzien (waar Musk het altijd over heeft.). Wie herinnert zich nog de film “De Lift”?
In sommige gevallen is de output vrij direct een input waarop copyright rust, bv. Dall-E https://qph.cf2.quoracdn....42fcd4600ac31d1a916906324.

En ChatGPT gaf aan een collega van me aan mashup van twee van zijn papers.

Er zijn dus best wel gevallen waarin er een min-of-meer 1:1 relatie is. In veel andere gevallen is het zeker onduidelijker.
Of al die AI gegeneerde filmpjes waar het Shutterstock logo gewoon op elke frame duidelijk leesbaar te zien is.
Met een AI model, heb geen 1:1 verband tussen het model zelf en de gegevens waarop het getraind is.
Jawel. Vaak zat is het antwoord dat ie geeft 1:1 gekopiëerd van de resultaten op Google. En soms zit er zelfs bar weinig I in de AI moet ik zeggen. Als ik vraag wat de meest praktische manier is om van Rotterdam naar Oxford (UK) te reizen, komt ie met een verhaal dat ik later in vrijwel dezelfde bewoordingen in het topresultaat van Google zag staan. Het domme was, dat ie uit het zinnetje dat Oxford op bijna 500km afstand ligt concludeerde dat ik ook wel met de auto zou kunnen gaan. Het zou een ritje van 4.5 uur zijn... Toen vroeg ik of ie niet op de hoogte was van dat stukje water tussen Nederland een Engeland. Ohja...dat water... :+

Maar goed, afgezien van die uitglijder heb ik vaker gemerkt dat ie ook maar gewoon googled, of dezelfde bronnen heeft in ieder geval. Dus soms kun je jezelf de moeite besparen van een conversatie en gewoon Googlen. Kun je tenminste je eigen verstand gebruiken om te kijken wat een goed antwoord is. Voor programmeerproblemen is het waarschijnlijk handiger, maar concrete vragen kun je net zo makkelijk zelf zoeken. Net zo snel en soms beter.
Het volk meekrijgen is juist wat de AI-makers doen, door alleen de mooie uitkomsten te laten zien maar niet de diefstal van data die daaraan vooraf ging, noch de risico's. Het zijn juist de markten die de afgelopen 50 jaar bijna alles bepaald hebben; dat brengt ons niet veel goeds. En niet elke overheid is de Sovjet-Unie...

Elke vorm van onverantwoordelijkheid toestaan zou juist leiden tot slechte technologieën, die worden ingezet voordat ze volledig aan de tand gevoeld zijn. Regulering is helemaal niet zo'n grote rem als de grooteigenaren willen dat wij denken. Dat is juist dat kweken van anti-overheidssentiment. Wij horen te denken dat overheid alles zomaar blokkeert. Dat is meestal niet zo; het gaat om alles van veiligheid tot mensenrechten.

De AI-bazen een beetje terugfluiten lijkt me absoluut geen gek idee in dit stadium.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:23]

Het volk meekrijgen is juist wat de AI-makers doen, door alleen de mooie uitkomsten te laten zien maar niet de diefstal van data die daaraan vooraf ging,
Ik zou het geen diefstal noemen. Immers, is het spideren van Google dan diefstal? Die doen hetzelfde, alleen zij doen minder processing op de resultaten. Maar wat Google doet is alom geaccepteerd.

Sowieso wordt er niets weggenomen. Het is hooguit copyright inbreuk.

Deze hele ethische discussie moet nog gevoerd worden maar deels zijn we met zijn allen al helemaal okee met het gebruik van publieke data.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 15:23]

is het spideren van Google dan diefstal? Die doen hetzelfde
Nee, hoor. Googlebots zoeken het net af en indexeren het, cq houden alleen maar bij waar iets staat.

Bij het trainen van AI wordt alles ingelezen, verwerkt en vervolgens wordt het in eigen productie verwerkt, zonder dat de originele auteur daar iets van terugziet of invloed op heeft.
Google leest de inhoud van elke pagina. Daarom heb je ook de google cache. Zonder die cache kan het niet volledig de inhoud indexeren. Het verschil is dat google naar de live pagina stuurt bij het vinden van een zoekresultaat, maar het leest wel degelijk de hele content in en die kan je ook via de cache benaderen. Dit doe ik ook wel eens (bij paywalls bijvoorbeeld).

Natuurlijk is het een verschil maar ik vind het niet zo'n groot verschil dat ik vind dat het ene zomaar moet kunnen en het andere niet. Er zijn ook heel veel overeenkomsten zoals het spidermechanisme. En voor het uitsluiten zijn al voldoende waarborgen. Bijvoorbeeld zorgen dat OpenAI zich aan robots.txt houdt zou ik al voldoende vinden. Als je dan niet wil dat je site in AI terecht komt, dan kan je daar gewoon een uitsluiting voor maken.

Ik vind het als gebruiker ook zeker een voordeel. Google is nu vol met clickspam sites, sites die zich puur voorspiegelen als iets dat mensen zoeken om clicks binnen te halen. Een chatbot geeft me gewoon antwoord op de vraag die ik stel.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 15:23]

Jij en anderen vinden dit verschil nu juist niet zo groot omdat de technologie steeds vooruit loopt op wetgeving en tegen de tijd dat de wetgever iets geregeld wil krijgen iets al zo'n gemeengoed is geworden dat ze het nooit meer ingeperkt krijgen. Kijk maar naar Google Streetview. Massale schending van privacy maar tegen de tijd dat de wetgever in de US wakker werd en beperkende maatregelen wilde nemen had Google het product al als beta versie de lucht in en kon niemand meer zonder. Gelijk zo met Google Books.

En dat is het enige wat die baasjes nu doen, net zo lang vertragen en lobbyen totdat straks 'niemand meer zonder kan' en dan heb je weer geen wetgeving op een bepaald gebied of wel zo ernstig gemankeerde of weinig beschermende wetgeving dat het flut is. Ik las ergens dat er nog nooit zoveel geld is uitgegeven door big tech aan lobbyen als afgelopen jaar.

Feit is dat een bakker ook niet overal zijn ingrediënten voor brood 's nachts gaat jatten en brood ermee bakt en tegen de tijd dat de politie en de klant op de stoep staat zegt: nee nee ik was het niet, oh en nee ik heb hier geen logfile van wat er precies in het brood is gegaan wat ik hier verkoop. Maar kijk, mijn klanten kunnen niet zonder brood! Sure, mijn analogie gaat vast ergens mank, maar je voelt prima aan wat de strekking ervan is.

Wat jij hier stelt dat je zelf als rechthebbende actie moet ondernemen (of dat nou robots.txt is of wat dan ook) om je werk te beschermen tegen misbruik is de omgekeerde wereld. En blijkbaar kunnen sommige partijen gewoonweg niet vertrouwd worden op hun donkerblauwe oogjes. Dan maar wetgeving die er voor gaat zorgen dat ze vooraf (en niet als beta versie 35 met 5 miljard gebruikers al draait) verantwoording afleggen over hoe die machine learning algoritmes die modellen laden en verrijken.

Zeggen dat je liever een chatbot hebt die jou een antwoord op de vraag geeft die je stelt dan een zoekresultaat krijgt van Google is echt moedwillig niet zien wat het probleem is. Sterker nog, het is naïef om te denken dat je daarmee resultaten krijgt die objectiever zijn of die daadwerkelijk jouw vraag beantwoorden.
Ik vind het gebruiken van robots.txt niet raar. Je bent als website houder je content willens en wetens op internet aan het publiceren dus als je daar kanttekeningen aan wil stellen ligt de onus bij jezelf. Zo werkt het internet en heeft het altijd gewerkt. Als je vanaf het begin had moeten onderhandelen met elke site of algemene voorwaarden geneuzel had moeten lezen dan was het WWW nooit van de grond gekomen. Het hele idee is juist dat informatie vrij is en dat de mensheid steeds meer kennis verwerft door deze aan elkaar te linken. Het trainen van AI is een verlengstuk ervan. Natuurlijk zijn er commerciele AI's die er winst over maken maar het zou ook geweldig zijn als er echt open (als in open source) modellen komen die je thuis zelf kan draaien. LLaMa komt al een heel eind hierin, dus het is zeker mogelijk. ChatGPT is veel te zwaar (vereist een ton aan GPU hardware) maar het is zeker mogelijk een model te verkleinen.

En ik vind de resultaten echt enorm veel beter dan Google ja. Natuurlijk moet je je resultaten checken maar dat is met Google nog veel meer zo. Met name omdat er geen marketeers in chatbots lopen te rommelen met search engine optimization en dat soort troep. Wellicht komt dat wel maar AI kan ons ook helpen om dat soort troep tegen te gaan.

Overigens schiet je je als EU alleen maar in de voet als je het gaat verbieden. Want China en Amerika gaan dat niet doen en de potentiële efficiëntie verbetering is enorm. Dan raakt de EU economie alleen maar meer in het slop dan hij nu al is. Zie dit bijvoorbeeld: https://www.bloomberg.com...lans-toward-north-america

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 15:23]

Natuurlijk is het een verschil maar ik vind het niet zo'n groot verschil dat ik vind dat het ene zomaar moet kunnen en het andere niet. Er zijn ook heel veel overeenkomsten zoals het spidermechanisme. En voor het uitsluiten zijn al voldoende waarborgen. Bijvoorbeeld zorgen dat OpenAI zich aan robots.txt houdt zou ik al voldoende vinden. Als je dan niet wil dat je site in AI terecht komt, dan kan je daar gewoon een uitsluiting voor maken.
Dan moet een ChatGPT wel beginnen met bronnen te delen. Anders is er geen controleren aan.
Dat is dus een uitvoeringspunt van de voorgestelde wetgeving.
Maar dat is dus niet hoe LLMs werken. De output is niet te herleiden naar concrete bronnen. Er zijn uitzonderingen, zoals hoe Bing Chat naar webpagina’s verwijst, maar in de basis ‘verzint’ een LLM zijn antwoord op basis van alle input. Daarom kan het ook hallucineren.
Hallucineren? 8)7
Je bedoelt dat die software glitches heeft? Of dat er sprake is van algoritmische junk?

Hallucineren doen mensen. Dus ook de makers van die AI / LLMs.

Ik zou voor een gezonde koude douche tegen de techbro-vocab gericht op menselijke eigenschappen toedichten aan serverfarms vol met machientjes die software draaien even dit lezen: https://www.theguardian.c...hallucinating-naomi-klein
Daar wordt ook aan gewerkt inderdaad.
Het verschil is dat je je website gemakkelijk aan kunt laten geven dat je niet wil dat het door een zoekmachine wordt geïndexeerd. Bij AI als ChatCPG heb je geen idee of je website wordt gebruikt als leerobject. Het zou mooi zijn als beheerders daar zelf over kunnen beslissen middels een opt-out of liever een opt-in.
Voor fora zouden de beheerders eigenlijk aan moeten geven of de site voor AI-indexing wordt gebruikt of niet.
Er zijn behoorlijk veel rechtzaken geweest met oa makelaars website's en nieuws website's over het wel of niet mogen indexeren van artikelen.
Dat ging over het integraal overnemen van zoekresultaten door andere sites die exact hetzelfde doen. Vind ik nog minder gelijkaardig dan wat Google doet.
Het indexeren van publieke pagina's is één ding, maar wie weet heeft OpenAI heel libgen ingelezen voor hun modellen.
Robots.txt. Als jij zegt dat Google een pagina niet mag indexeren, dan doet die dat ook niet.
De AI-bazen een beetje terugfluiten lijkt me absoluut geen gek idee in dit stadium.
3 jaar geleden had nog nooit iemand van Sam Altman (of openAI) gehoord, maar het topic AI staat bij bigtech al decennia hoog op de agenda, en in de academische (en science fiction) wereld al minstens sinds begin jaren 60.

Ook mensenrechten zijn niks nieuws, met de grootste veranderingen aan het begin van de 20e eeuw (gelijkheid qua stemrecht voor vrouw en slaaf). Ik bedoel, da's gewoon de generatie van Eisenhower, Woodrow Wilson en Prescott Bush, om maar wat context erbij te droppen.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 15:23]

'Diefstal' .
Ik mag aannemen dat we hier allemaal leren van data die publiekelijk beschikbaar wordt gesteld, en de opgedane kennis gebruiken voor onze lol maar ook voor onze creaties en verdiensten. Als dit Diefstal is, dan is het auteursrecht aan een upgrade toe.
Je neemt aan dat de traininga data publieke data is.
Daar zijn twijfels over. Vandaar men hier inzicht in wil hebben.
Er is verschil tussen het tot je nemen van copyrighted materiaal en het als belangrijkste asset voor je inkomsten te gebruiken. Als Tweakers hier letterlijk berichten van andere nieuwssite gaat publiceren is het heel wat anderen dan dat als wij al individu een artikel lezen en met de opgedane kennis iets doen.
Wat een belachelijke vergelijking.
Heb je al een paar minuten gespendeert om te kijken wat die Europese AI act inhoud?
Ik wel namelijk. En daar staan allemaal hele redelijke eisen in.

Eisen die zijn opgesteld om dingen zoals de toeslagenaffaire te voorkomen.
Wil jij de AI makers de vrije hand geven en continu toeslagenaffaires hebben?
Laatste keer dat ik keek was de toeslagenaffaire gecreëerd door de belastingdienst en hadden die er geen AI voor nodig om mensen het moeilijk te maken.
Waarom zou ontwikkelen van AI toepassingen leiden tot een continu stroom aan toeslagenaffaires?
Ik denk eerder dat met AI er minder toeslagenaffaires zouden komen omdat die meer uitgaat van feiten en minder van groepssentimenten als 'afpakjesdag'.

Niet dat ik vind dat we de belastingdienst maar compleet door AI moeten laten runnen hoor, maar ik denk dat juist het onterecht benadelen van mensen juist minder zou zijn. Het probleem dat ik dan verwacht ligt eerder in de hoek van te hard optreden (en op elk klein dingetje).
die meer uitgaat van feiten en minder van groepssentimenten als 'afpakjesdag'.
Juist het tegendeel. Een AI zal heel snel (logische) verbanden leggen waarvan wij het moreel onacceptabel vinden om die verbanden te leggen.

Uiteraard zul je meer bijstand fraude zien in een achterstandswijk dan in een rijke wijk.
En waarschijnlijk ook meer Islamieten in die achterstandswijk dan in een rijke wijk.
Een AI heeft er totaal geen moeite mee om een verband te leggen tussen fraude en inkomen en tussen fraude en godsdienst. (dat is in de praktijk al regelmatig gebleken)
Wij mensen weten echter dat zulke verbanden absoluut niet gelegd mogen worden.

En daarom zul je dus heel goed moeten opletten dat een AI niet zulke verbanden gaat leggen. Dat een AI geen bias heeft.

Daarom is die EU wetgeving er ook heel sterk op gericht dat er geen bias in een AI zit en dat je als AI leverancier ook moet kunnen laten zien hoe je hebt voorkomen dat jouw AI een bias heeft. Dat je de AI getraind hebt met een schone dataset die geen bias heeft.

Die wetgeving vereist geen rare dingen. Als je met een groep vrienden lang zou nadenken over wat voor eisen je in het algemeen aan een AI moet stellen, dan kom je op dezelfde zaken uit.

Dat zegt niet dat het allemaal makkelijk is. Als je je AI getraind hebt met een gigantisch berg data van internet. Heb je dan wel gekeken of die data geen bias heeft? Levert het gebruik van alleen data van internet al niet automatisch een bias op?
Hoe toon je als leverancier aan dat je AI geen bias heeft?

Maar dat dat lastig is, is geen reden om het dan maar niet te vereisen.
Bij een nieuw medicijn zeggen we ook niet: Effecten op de lange termijn testen is lastig, dus laat dat maar achterwege.
Juist het tegendeel. Een AI zal heel snel (logische) verbanden leggen waarvan wij het moreel onacceptabel vinden om die verbanden te leggen.
Een AI moet je trainen om naar bewijs te zoeken. Suggestieve dingen zoals de achtergrond van mensen zijn geen bewijs. Daar heb je helemaal niks aan. Ik zie niet in waarom een AI daar uberhaupt aandacht aan zou besteden. Waar het mis gaat is als mensen vervolgd worden zonder bewijs of zonder eigen schuld zoals tijdens de toeslagaffaire (en daar komt die omgekeerde bewijslast van de belastingdienst ook bij kijken).

Profilering is iets dat ter sprake komt als je steeksproefsgewijs gaat werken. Dus beperkte mankracht. Daar wil je zo efficient mogelijk mee omgaan en dus is er al snel de neiging om mensen/wijken te checken waar relatief veel misdaad onder voorkomt. Dit is een menselijk fenomeen want mankracht is eindig.

En dat is nou juist het punt (en ook het gevaar) van AI: Het heeft geen beperkte mankracht. Het kan iedereen altijd controleren. Daarom zal het worden ingezet om te zoeken naar werkelijk bewijs, niet dit soort statistische fenomenen. Dat is gewoon niet meer nodig als je geen beperkte capaciteit meer hebt.

Dus ik zie het gevaar niet zozeer in het versterken van bias, maar meer in het probleem dat we allemaal in een panopticon gaan leven. Een soort 1984. Ik denk dat dat helaas eigenlijk onvermijdelijk is. Zelfs als er paal en perk aan gesteld wordt, zal er wel een keer een 9/11 achtig iets gebeuren waarna alle regels overboord worden gezet net zoals in Amerika al is gedaan.

Uiteraard ben ik daar tegen maar ik denk niet dat dit soort regels gaan helpen. Uiteindelijk blijft er toch druk van de opsporingsdiensten. Zie ook nu weer hoe bijvoorbeeld de hele end to end encryptie weer onder discussie staat.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 15:23]

enge blik op de wereld, een beetje struisvogelen kan idd geen kwaad.
Het probleem is dat een AI waarschijnlijk niet het oorzaak-gevolg snapt. Dat je als je uit een bepaalde wijk komt of er op een bepaalde manier uitziet dat dat niet betekend dat je automatisch fraudeert. Dat is nou net het probleem van de toeslagenaffaire. En dat versterkt zichzelf ook nog eens: - hoe dieper je kijkt hoe meer je vind.

AI gaat niet specifiek uit van feiten, het gaat uit van de informatie die het vind in de bronnen die het raadpleegt. En dan gaat de AI "associeren". Associatie zonder correcte oorzaak / gevolg is nou net het probleem.
Dan gebruik je natuurlijk het verkeerde type AI. Voor juridische zaken moet je een AI gebruiken die wel ingericht is op feiten zoeken en niet vage associaties.

Dat is ook wat er mis ging met dat SyRi project. Het was geen echte AI maar een soort 'hinting' voor menselijke onderzoekers.
Ik snap niet waarom hierop negatief wordt beoordeeld. Ik ben oprecht zelf ook wel benieuwd hoe dat dan precies zit.
De overheid staat in dienst van het volk, niet in dienst van een minuscule elite. Het is dus juist de taak van een overheid om de bevolking te waarschuwen tegen exploitatie en misbruik door een heel klein groepje mensen met vrij nare ideeen over wat we met de mensheid zouden moeten doen.
Technologie is neutraal.
Dat is het absoluut niet. Zoek maar eens op AI Bias of algorithm bias. Er zijn genoeg voorbeelden te vinden waar er onbedoeld een bias in algoritmes is gekomen, dat tot hele vervelende situaties heeft geleid.
De technologie is nog steeds neutraal, de dataset is dat wellicht niet.
Geen enkele technologie is ooit neutraal. Dat is een van de grootse mythes rondom technologie.
Een technologie komt altijd tot stand tot mensen. Die mensen hebben bepaalde waarden, belangen, zaken die ze belangrijker vinden dan andere zaken.

Het in de wereld brengen van technologie waardoor dingen mogelijk worden die daarvoor niet mogelijk waren, is niet neutraal.
Er is op dit moment in de EU geen sprake van het verbieden van AI. Er is alleen wel sprake van dat Open AI zich aan dezelfde wetten moet houden als jij en ik. En dat wil meneer Altman niet. Die copyright claims lijken me niet meer dan logisch, dan had hij maar een beter business model moeten verzinnen.

Zoals het er nu naar uit ziet zal de EU met de AI Act de eerste in de wereld zijn die een grondig doordacht framework neerzet over hoe om te gaan met AI, net zoals ze dat ook hebben gedaan met de GDPR. En ik verwacht dat de AI Act, net als de GDPR, over de hele wereld geheel of ten dele gekopieerd zal worden.
Deze vergelijking met elektrische wagens gaat alleen een beetje mank, want auto's zijn juist door de overheid gereguleerd en moeten aan allerlei wettelijke eisen voldoen. Tesla kan niet zomaar een nieuwe wagen ontwerpen en in Europa verkopen zonder dat verschillende instanties controleren dat de auto aan alle Europese wetgeving voldoet.

AI-oplossingen zijn vrijwel niet gereguleerd en is een wild westen. Dat is waar deze Europese AI act op doelt. Reguleren, niet verbieden.
in plaats van de boel volledig te verbieden
Daar is totaal geen sprake van, dus waarom probeer je zulke desinformatie te verspreiden?
Ga eerst eens iets van de wetgeving lezen voor je nog meer van dergelijke desinformatie verspreid.
Robots.txt werkt alleen als de auteur van het materiaal de controle heeft over de website, of de website waar het materiaal op geplaatst wordt het toelaat om bepaald materiaal daaraan toe te voegen.

Zo onredelijk is dat niet, want het is helemaal niet moeilijk om in ieder geval een tabel aan een databank toe te voegen waar allemaal netjes instaat welk materiaal is gebruikt om een bepaald model te maken. Leg mij eens uit waarom dat moeilijk is? Dat leegtrekken van het internet is tenslotte geautomatiseerd.
We kunnen ook net als met het internet wachten tot één partij monopolies heeft in 10 markten en hun associale businessmodel het enige is dat overblijft.
Het is inderdaad niet netjes dat ze zomaar allerlei informatie opzuigen. Toch denk ik dat je dat beter niet kunt verbieden.

Verbieden betekend namelijk alleen maar dat het achter gesloten deuren toch gebeurt, maar dat die AI dan alleen beschikbaar is voor een select gezelschap.

Er is al genoeg ongelijkheid in de wereld. We moeten voorkomen dat toegang tot (goede) AI aan dat lijstje wordt toegevoegd.
Ik hoop dat de AI-makers allemaal zorgvuldig moeten gaan omschrijven wat ze doen en hoe, met welke data, dat ze goedkeuring en instemming moeten hebben voor die data
Vraagje, hoe verschilt het met zoekmachines die nu die data zomaar gebruiken (bv Google die "short answers" geven?). Want dan zou je zoekmachines ook moeten afschaffen?
Ik ben het met je eens dat het onredelijk is. Maar....

Kijk naar hoe een mens leert. Die leert door dingen te lezen en te vergelijken.
Die AI doet eigenlijk hetzelfde. Als ik iemand een vraag stel, en hij me antwoord geeft, dan is dat ook niet onderworpen aan auteursrecht of instemming.

Dit is een heel moeilijk onderwerp, waar echt door rechtsgeleerden naar gekeken moet worden.
Ik neem voor het gemak even aan dat jij de creche, de basisschool, een middelbare school en mogelijk ook vervolgopleidingen gedaan hebt. Net als een groot deel van de Nederlanders.

Als je dan naar je eigen ervaring daar kijkt hoe jij hebt geleerd, kun je dan echt de definitie van leren reduceren tot 'dingen lezen en vergelijken'?

Een AI doet niet hetzelfde als een mens. Een mens leert, een AI is computercode waarbij al vast staat waar het toe moet gaan leiden. Het is ergens om gemaakt, met een doel.
Dit was nooit redelijk? Dat ben ik met je eens. Maar het is wel realistisch. Auteursrecht in de huidige vorm slaat echt helemaal nergens meer op. En dat heeft het overigens nooit gedaan. Iedereen met een beetje geld en een internet connectie kan bizarre dingen doen op dit moment, en daar heb je openai niet meer voor nodig. Het is onhoudbaar. Het enige wat je kunt proberen is de echt grote bedrijven met grote maatschappelijk impact op sociaal vlak in te perken. Vooruitgang stopt voor niets of niemand.
Onder andere het innemen van alle publieke informatie, ongeacht auteursrecht of instemming. OpenAI wil dat vast graag zo houden maar dit was nooit redelijk.
Wat je hier aangeeft is dat je eigenlijk nooit iets zelf mag schrijven over een bepaald onderwerp die je op een publieke website hebt gelezen omdat jouw tekst gebaseerd is en bepaalde woorden overeenkomen met de bron waar auteursrecht van toepassing is én je geen toestemming hebt gevraagd om het te lezen en het als input wilt gebruiken voor je eigen tekst.

Dat is wat ik hieruit lees, klopt dat?

[Reactie gewijzigd door david-v op 22 juli 2024 15:23]

Als ik dit zo lees vind ik de voorstellen eigenlijk best goed. Vooral het gedeelte welke bronnen gebruikt worden en dat deze gedefinieerd worden. Het is nogal vervelend als je inkomstenbron geindexeerd wordt door OpenAI en je content niets meer waard wordt. Zoals je zegt, laat ze het maar uitvechten, deze discussie komt zeker niet te vroeg. Anders wordt het straks achter de feiten aan rennen.
Ik onderzocht gister nog een wetenschappelijk onderwerp en kreeg een vrije goede en complete antwoord. Wilde het nog wel even controleren op correctheid dus vroeg om een bron, maar kreeg de reactie dat de AI als taalmodel dat niet kan en werd geadviseerd om zelf wetenschappelijke databasen te doorzoeken. Aandringen leverde verzonnen niet bestaande bronnen op. De wetenschappelijke studies over de kwestie kosten ongeveer €40 per stuk om te lezen. Het zou mij waarschijnlijk €100-200 kosten (en enkele dagen leeswerk) om dezelfde info te vergaren uit verschillende studies.

Ik denk dat het taalmodel o.a. ook getraind is op niet publieke betaalde data, maar dit enigszins verbergt. Dus snap ik de insteek van de wetgeving wel. Aan de andere kant, wat is het toch verdomd handig en makkelijk om zo dingen te kunnen onderzoeken. Je kan in enkele minuten dagen aan werk verrichten en zo de juiste richting vinden, wat je misschien anders nooit had kunnen vinden omdat het zo tijdsintensief is. De winst is zo groot dat het bijna crimineel aanvoelt het niet te mogen gebruiken. Er komt zoveel tijd vrij, dat je een meervoud aan vooruitgang kan boeken waar je in je leven anders nooit aan had toegekomen.
In dat daglicht hoop ik dat de partijen samen tot een mooie oplossing kunnen komen ipv een simpele verbod (op vooruitgang).
Ik wilde dat eens testen een tijdje geleden. Door een summary en vervolgens diepere uitleg en toelichtingen te vragen kreeg ik na wat doorvragen (paar minuutjes tops) uiteindelijk van ChatGPT rustig de complete ISO27K1 documentatie boven water. Die zijn behoorlijk aan de prijs, maar de gegevens die ChatGPT uitspuugde leverde eigenlijk hetzelfde op wat je moet weten als de officiële documentatie. Het zouuuuu kunnen dat ie dat uit verschillende openbare bronnen gehaald heeft, maar om het precies in de juiste context en volgorde te zetten met her en der uitleg die 1:1 kopietjes zijn kan ik me niet aan de indruk onttrekken dat het ding een keer wat PDFjes heeft verwerkt zullen we maar zeggen.

Aan de ene kant kan je stellen dat is niet de bedoeling. Aan de andere kant, als je een Udemy-cursus o.i.d. volgt heb je er ook zat die het samenvatten en vervolgens per punt het hoe en wat gaan behandelen; als je notities maakt heb je de originele docs ook niet perse nodig - en dat is ook legaal. De vraag is dan wanneer het wel okee is en wanneer niet en op welk moment val je onder fair use.
In het geval van ISO is het sowieso achterlijk dat je ervoor moet betalen. Deze informatie zou gratis moeten zijn. Als we ISO betalen vanuit de (EU) verschillende overheden zijn we van dit gemekker af. Maar goed, ISO is natuurlijk alleen maar een voorbeeld hier.
In het geval van ISO is het sowieso achterlijk dat je ervoor moet betalen. Deze informatie zou gratis moeten zijn.
Helemaal mee eens!
Idem voor NEN normen.
En ook voor alle publicaties van onderzoek dat gefinancierd is door universiteiten en overheid!
Ik denk dat het ook belangrijk is om je te beseffen dat ChatGPT een chat model is, getraind om natuurlijke conversaties te voeren en in principe responses te formuleren die goed aansluiten op de prompts. Maar het is nog steeds genereren van responses, en ook als de informatie redelijk accuraat is, is dit nog steeds meer een bias vanuit de training data dan dat het model echt de feiten op een rijtje heeft.

Dat zie je ook goed terug met de niet bestaande bronnen, het model genereerde gewoon iets dat aan jouw vraag voldeed. ChatGPT is daarom ook niet zo geschikt voor wetenschappelijk onderzoek denk ik.
Helemaal hier mee eens. Ben best blij dat de EU dit zo serieus neemt en direct stemt over wetgeving. Je ziet dat de EU gezamenlijk vrij veel macht heeft, aangezien de heer Pichai komt overvliegen.
Ik zie dat als een goed teken dat Sundar Pichai komt praten, er moet altijd ruimte zijn voor innovatie maar tevens moeten er ook regels en wetten komen om burgers en rechthebbenden te beschermen. Beter praten ze met elkaar dan dat het achteraf via langdurige rechtzaken uitgevochten gaat worden.
Het is nogal vervelend als je inkomstenbron geindexeerd wordt door OpenAI en je content niets meer waard wordt.
Het is al lang zo dat alleen de letterlijke tekst beschermd is en anderen dat niet zomaar mogen kopiëren. Wat echter wel mag dat je dezelfde informatie in je eigen bewoordingen opschrijft. Anders zou het ook wel heel eng worden, want dan zou ik hier bijvoorbeeld niet mogen opschrijven dat ik een bepaald feit in de krant gelezen heb, zonder dat ik hiervoor toestemming moet krijgen van de krant, eventueel tegen een vergoeding. Dan is je vrijheid van meningsuiting een wassen neus, want vrijwel elk feit dat je wilt gebruiken in een betoog mag je dan niet meer gebruiken zonder toestemming.

Dus zolang de AI informatie waar deze op een legale manier toegang toe heeft gekregen in zijn eigen bewoordingen weergeeft, zie ik niet waarom dit opeens een probleem zou zijn. Ze doen dan weinig anders dan wat wij ook doen en mogen doen.

Het gebeurt trouwens nu ook dagelijks dat iemand informatie opschrijft nadat dit al elders op een ontoegankelijke manier is gepubliceerd (slecht taalgebruik, slechte presentatie, een andere taal dan veel lezers machtig zijn, veelvuldig gebruik van jargon, etc) om zo informatie beschikbaar te maken voor een publiek dat anders deze informatie niet zou krijgen. Een groot deel van wat nieuwsmedia brengen is bijvoorbeeld niet iets dat ze zelf verzinnen, maar wat ze overnemen uit andere media of andere geschreven bronnen.

[Reactie gewijzigd door Ludewig op 22 juli 2024 15:23]

Ook niet vergeten dat je ook een referentie naar de bron moet hebben in je tekst als je de info ergens anders vandaan haalt, anders valt dat onder plagiaat. Dit is nou een van de wetsvoorstellen die nu dus gemaakt zijn.
Dat is dus ook alleen als je de tekst letterlijk overneemt, op zo'n manier dat er geen copyright-overtreding is vanwege fair use of iets dergelijk.

Bij het parafraseren van teksten is er nooit sprake van plagiaat.
Ja, maar hoe ga je controleren dat de AI het niet letterlijk heeft overgenomen?

Als jij het vervolgens gebruikt en het blijkt toch plagiaat te zijn, dan ben jij het haasje.

En nee, even een zoekopdracht op Google gaat je niet veilig maken als ze data uit niet openbare bronnen hebben gebruikt
In principe is dat heel onwaarschijnlijk, want de AI onthoudt geen letterlijke teksten. Dus het is alsof jij een tekst leest en een week later gevraagd wordt om het te reproduceren. De kans is dan minimaal dat je de tekst nog letterlijk kan oplepelen.
Uit eerdere reacties zijn al meerdere voorbeelden genoemd waarbij stukken vrijwel verbatim werden opgelepeld.

Ook kon je bijvoorbeeld github copilot gewoon stukken code laten oplepelen uit een open source github repository door bijvoorbeeld een prompt als "schrijf een stuk code dat dit en dat doet in de stijl van github username" maar ja, wel zonder enige credits of licentie.
Ik vind het ook niet gek klinken.

Offtopic: Eerlijk, waarom creërt de EU niet een LLM op basis van Europese data, via EU universiteiten en eigendom wordt van de Europese Burger. Een AI getraind voor en door Europa. Eerlijk, ik zie niet hoe het verstandig is om te hangen aan Amerikaanse ondernemingen.

Als de EU haar burgers veilig gebruik wil laten maken van deze technologie en deze snel wil door ontwikkelen dan is dit denk ik de weg.

[Reactie gewijzigd door HandheldGaming op 22 juli 2024 15:23]

Een hoop komt natuurlijk al gewoon uit Europa. De technologie achter Stable Diffusion komt uit München, Bard van Google komt grotendeels van DeepMind uit Londen.

Waar het om gaat is dat is dat, ongeacht waar het vandaan komt, de ontwikkeling er van zich wel gewoon aan de wet houdt en dat de bevolking beschermd wordt tegen exploitatie of misleiding door dit soort modellen.

Wat ik graag zou willen zien is openlijke verantwoording waar de data vandaan komt, misschien zelfs het verplicht delen van de trainingsdata (niet alleen de herkomst maar ook de data zelf, zodat de innovatie in het model zit en niet in wie er toevallig zo effectief mogelijk illegaal data heeft opgezogen). Er komt stukje bij beetje uit waar Bard en ChatGPT mee getraind is dat zou alle alarmbellen moet doen afgaan. Een LLM bouwen op basis van Reddit en 4Chan kan natuurlijk alleen maar problemen opleveren.
Als het gaat over AI, en er worden LLLM's gebruikt, dan is het wel handig om wat gerelateerde begrippen te gebruiken. Merknamen helpen in ieder geval niet.

regex, python en javascript is al meer to-the-point bijvoorbeeld. Qua data is het handig om ascii en utf8 te splitsen.

het gaat tenslotte om de fijnere details.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 15:23]

Dat zijn waarschijnlijk peta bytes aan gegevens. Ze hebben het over biljarden parameters. Als een parameter gemiddeld 255 bytes is en je hebt een biljard parameters dan heb je 230 TB nodig, plus daarbij nog randzaken waardoor een parameter wellicht 2KB is gemiddeld waardoor je al 1.8 PB nodig hebt. Die data komt van het internet. Maar chatgtp kan video/ boeken/ audio gebruikt hebben als input.
Het idee over cookie's was eigenlijk ook best goed. Nu hebben we een cookiemuur voor iedere website en geen enkele vooruitgang gemaakt in privacy. Er is daarentegen zeker wel achteruitgang gezien veel buitenlandse websites geen EU bezoekers meer toestaan.

Bureaucratie begint vaak goede bedoelingen maar we moeten afwachten wat er nu echt uitkomt. Ik zou hetzelfde aangeven als ik Altman was want de voorstellen kunnen best wel eens onmogelijk zijn om aan te voldoen.

Daarbij zouden ze deels verantwoordelijk worden voor hoe hun AI-systemen worden gebruikt.
Gezien een AI letterlijk iedere geen een ander antwoord kan geven, is het volgens mij vrijwel onmogelijk hieraan te gaan voldoen. Het is in idee gelijk aan Facebook verantwoordelijk maken voor wat gebruikers op het platform schrijven...

Ook moeten ze onder het nieuwe voorstel duidelijker maken welk auteursrechtelijk beschermd materiaal ze hebben gebruikt om hun generatieve-AI-modellen te trainen.
De datasets waarop getraind wordt is zo gigantisch dat ik niet zeker weet of dit uberhaupt wel haalbaar is. Überhaupt moet men eerst definiëren wat auteursrechtelijk materiaal is. Is Open-source auteursrechtelijk beschermt? LLM's zijn nogal een nieuw ding dus binnen voorwaarden is daar meestal niets over afgesproken. Welke wetgeving hou je überhaupt aan? De US of EU? Of die van China? Want dan zijn we er snel uit :+

Daardoor zouden rechthebbenden beter compensatie kunnen aanvragen.
Net of bij ieder auteursrechtelijk materiaal een rekening nummer staat waar ze even compensatie naar toe kunnen sturen...

Zoals alles politiek, de voorstellen klinken niet zo gek. De praktische onmogelijke implementatie? Ja, die moet men zelf maar gaan verzinnen. Resultaat: AI muur :Y)
De datasets waarop getraind wordt is zo gigantisch dat ik niet zeker weet of dit uberhaupt wel haalbaar is.
Dus als de hoeveelheid data die je gebruikt maar groot genoeg is dan mag je de auteurswet overtreden?

Dat lijkt me toch niet?
Zou het antwoord richting de AI fabrikant niet moeten zijn: De wet is duidelijk. Hoe jij zorgt dat je aan de wet blijft voldoen is jouw probleem, niet het onze.

Zoals zo vaak lijken mensen te denken dat je onder het mom van innovatie de wet mag overtreden.
Dus als de hoeveelheid data die je gebruikt maar groot genoeg is dan mag je de auteurswet overtreden?
Nee, maar het probleem hier is dat de afgeleide werken voldoende afwijken van het origineel dat auteursrecht hier niet meer opgaat (ergo, geen overtreding). Ten minste, dat zou het geval zijn als deze werken door mensen worden opgesteld. LLM's zetten meerdere 'definities' ter discussie. Zelfs op theologisch en biologisch gebied (wat is bewustzijn).

Wat men ziet is dat de hoeveelheid data de 'intelligentie' van het model bepaald. Een flinke beperking van dataverzameling kan een gevaar vormen voor je toekomstige modellen (en dus je bestaan).

Zoals zo vaak lijken mensen te denken dat je onder het mom van innovatie de wet mag overtreden.
Momenteel wordt er geen wet overtreden? Ten minste, tot een rechter daarover geoordeeld heeft moeten we afwachten. Onschuldig tot schuldig bewezen is een van de basis principes van een westerse beschaving.

Het lijkt uiteindelijk wel zo maar we zouden deze discussie niet hebben als er een mens aan de andere kant van chat interface zat ;)
Nee, maar het probleem hier is dat de afgeleide werken voldoende afwijken van het origineel dat auteursrecht hier niet meer opgaat (ergo, geen overtreding).
Volgens mij haal je nu twee dingen door elkaar heen.
Het trainen gebeurt met originele werken.
Wat de AI er vervolgens van maakt (intern) en produceert zijn afgeleide werken.

We hadden het over trainen en dus het auteursrecht op het origineel.
Volgens mij haal je nu twee dingen door elkaar heen.
Ja, ik praat inderdaad over het geheel, de training data en de resulterende werken. Ik zie de twee ook onvermijdelijk aan elkaar verbonden gezien de AI 'afgeleide' werken maakt.

We hadden het over trainen en dus het auteursrecht op het origineel.
Er wordt op het origineel geen auteursrecht geschonden. Dat gebeurd pas als je kopiëren maakt en dat is bij trainen niet het geval. Je bekijkt enkel het schilderij en dat kan niemand verbieden. Daarom moet je het probleem in zijn geheel zien. Daarnaast is meestal contractueel niets geregeld of een werk gebruikt mag worden voor training want deze situatie is nieuw. Dat zag je bij meerdere stock image aanbieders waar de afbeeldingen ook voor training werden gebruikt. In de US is het zo dat als het niet in de voorwaarden staat, er niets over is afgesproken en per definitie toegestaan is. Dat is hier in Europa anders en dat is weer een voorbeeld waardoor men geforceerd kan worden om in de EU te stoppen.


Wat de AI er vervolgens van maakt (intern) en produceert zijn afgeleide werken.
Maar dat betekent niet dat er een overtreding is begaan. Zie ook Wikipedia:
Hoe creatief de elementen moeten zijn om auteursrechtelijk gekenmerkt te worden als afgeleid werk is afhankelijk van de wetgeving.
En wetgeving is niet overal gelijk.

Als ik naar een van Gogh kijk en zelf een schilderij maak in de stijl van van Gogh dan is daar ook niets mis mee. Ik heb mij 'getrained' op de stijl en niemand zal daar commentaar op hebben als het werk maar 'uniek' genoeg is. Nu zijn er computers die binnen enkele seconden een uniek afgeleid werk genereren en dat is een nieuw probleem.
Alle vragen die je stelt zijn zeer snel beantwoord:

Gedeeltelijke verantwoordelijkheid? Je kan simpel bepalen waar een AI voor mag gebruikt worden. beetje overtrokken gesteld:Als je het ok vind om je AI open te stellen voor militaire doelstellingen is dat een keuze die je maakt en mede je verantwoordelijkheid dat er mensen mee gedood worden. Als je dit verbied en garanties inbouwd in je AI (bv. regeltje 'je mag niet doden') dan heb je al je best gedaan om te zorgen dat er geen militaire doelstellingen zijn voor je AI. Dag verantwoordelijkheid als er dan oneigenlijk gebruik is.

auteursrechterlijk beschermd materiaal?
Dat is welomschreven in de wet. Moet je niet moeilijk over doen. Een ieder die iets produceert of neerschrijft en publiceerd heeft auteursrecht. Het is aan die persoon om te bepalen of dit vrij toegankelijk is of niet. Indien er niet bepaald is dat dit in het publieke domein valt is er dus de beperking dat het beschermd is. Als je dus dingen in je dataset gebruikt die uit bronnen komen die niet tot het publieke domein komen moet je dus auteursrechten betalen. Als je niet weet of het auteursrechten vrij is, mag je het niet gebruiken. Je hoort dan toestemming te vragen aan de rechthebbende.

Daardoor zouden rechthebbenden beter compensatie kunnen vragen?
Een rechthebbende moet geen compensatie vragen, die moet die krijgen. Meestal is er een overkoepelende organisatie die zich bezig houdt met deze dingen, maar in het geval de rechthebbende niet is aangesloten bij zo'n organisatie moet de 'gebruiker' zich tot hem richten. Naar analogie: naar de film gaan en de cinema later maar laten uitzoeken wie je was en dan geld proberen te innen. Jij wil de film zien, je betaald zelf aan de rechthebbende (cinema in dit geval) niet omgekeerd.

Je moet het echt niet moeilijker maken dan het al is. Al deze wetgeving bestaat al, maar omdat AI het wilde westen is moet er weer nieuwe wetgeving komen om het specifiek aan banden te leggen. Je mag je gerust de vraag stellen of deze figuren (Altman, etc..) het nu echt nodig vinden om steeds slachtoffers te maken van hun drang naar expansie. Onlangs is er een intern document van Google naar buiten gekomen over hoe veel sneller en beter open source AI ontwikkeld werd en dat zonder auteursrecht te schenden. De gebruikte bronnen warer ook allen open source.
https://hackaday.com/2023...ompete-google-and-openai/

Je hoeft dus echt geen vreemde dingen te doen om echte ontwikkelingen mogelijk te maken. Houdt je aan de wet en het lukt ook. Al dat achterbaks gedoe is niet nodig. Schrik dan ook niet dat er ongemakkelijke wetgeving komt.
Ow, ik kan zo ook wel een aantal vragen beantwoorden maar waar het om gaat is dat eerst een rechter, toezichthouder of land dat zal moeten doen.
Als je het ok vind om je AI open te stellen voor militaire doelstellingen is dat een keuze die je maakt en mede je verantwoordelijkheid dat er mensen mee gedood worden.
Dat is nu niet het geval en dan zul je dat wereldwijd af moeten gaan spreken met 195 landen. In de US zal waarschijnlijk geconcludeerd worden om juist meer AI (guns) te voeren ;)
Verder zal het vrijwel onmogelijk zijn om een regel te maken 'je mag niet doden' omdat modellen geen concept hebben van leven of dood. Daarnaast generen ze iedere keer een uniek antwoord maar hopelijk krijgen we deze kernproblemen onder controle.

Het is aan die persoon om te bepalen of dit vrij toegankelijk is of niet.
Klopt, maar als jij het ergens plaats waar ik het kan zien dan kan jij geen commentaar hebben (of recht) als ik daar een afgeleide van maak. Dat is ten minste nu het geval bij mensen en staat inderdaad wettelijk vast. Voor computers is dit een nieuw probleem waarbij copyright opnieuw opgesteld zal moeten worden. Volgens de wet is momenteel een afgeleid werk niet een copyright overtreding als het nieuwe werk maar uniek genoeg is.

Jij wil de film zien, je betaald zelf aan de rechthebbende (cinema in dit geval) niet omgekeerd.
We zitten hier al met twee problemen. Ja, voor trainingsdata zou je het argument kunnen maken dat je daarvoor moet betalen. Je kan immers ook een kaartje voor een film betalen. Maar ga je de filmmaatschappij oko betalen iedere keer dat je iemand anders over die film verteld? Of je maakt je eigen parodie daarop, dat valt niet onder copyright als ik er een stop-motion variant maak. Tevens heeft de computer niet eens een concept van wat deze maakt dus kan niet eens bepalen of de originele trainingsbron een compensatie moet ontvangen. Hij maakt misschien wel duizenden varianten, hoe ga je dat trouwens ook ooit compenseren?

Je moet het echt niet moeilijker maken dan het al is.
Het is letterlijk oneindig complex. Copyright is momenteel gebaseerd op het feit dat deze dingen enkel door een mens uitgevoerd kunnen worden en veel tijd en moeite kosten. Het concept van copyright is omgevallen. Als je het 'eenvoudig' wil maken dan zul je alles moeten verbieden (no change) of copyright geheel af moeten schaffen (no change).

Onlangs is er een intern document van Google naar buiten gekomen over hoe veel sneller en beter open source AI ontwikkeld werd en dat zonder auteursrecht te schenden. De gebruikte bronnen warer ook allen open source.
Precies, het echte probleem vindt ook nog eens plaats in het publieke domein. Het is onvermijdelijk. Succes met de 195 verschillende wetgevingen in verschillende landen. De copyright opvattingen in China en Rusland zijn nogal anders dan hier in de EU...

Schrik dan ook niet dat er ongemakkelijke wetgeving komt.
Ik zal wel schrikken want dat zal betekenen dat innovatie op dit gebied hier niet meer plaats gaat vinden. Dit is het internet, je organisatie zit met twee klikken in een ander land. Innovatie hou je verder niet tegen maar als iedereen zijn AI ontwikkeling wegtrekt uit de EU en de diensten blokkeert, dan heb je een als continent echt wel een groot probleem.
De voorstellen zijn meer dan redelijke vereisten. Kan je daar niet aan voldoen, dan lijkt het mij ook maar goed dat je niet in de EU opereert.
Het gerucht gaat dat iemand ze van ChatGPT heeft gehaald.....
Dat zijn ze helaas niet. Zoals altijd met de EU, zaten er lobbyisten mee te schrijven. Vooral open source modellen zullen onmogelijk worden. Dat zijn degene die het meest bedreigend zijn voor muzieklobby.

In een open brief hebben een hoop Europese AI experts serieuze bedenkingen:https://laion.ai/documents/open-letter-to-eu-parliament.pdf

De EU regels dreigen kleiner onderzoek, open source en academisch onderzoek zeer moeilijk of onmogelijk te maken.

[Reactie gewijzigd door 87Dave op 22 juli 2024 15:23]

Niemand bang voor Skynet?
Met deze vorm van AI? Nah. Het is amper intelligentie te noemen. Het zijn kansberekeningsengines. Die gaan niet zo maar voor hunzelf denken. Je kan natuurlijk een AI maken die zelf aannames moet moet maken en dat aan een nuclear lanceer installatie hangen. Dan kan je een soort SkyNet krijgen ja. Maar dat is ongeveer hetzelfde als de controls aan een peuter geven. Het is niet zozeer de AI die dan eng is, maar de keus om de AI dat soort macht te geven, net zo goed dat je de controls ook niet aan een peuter geeft.

Je moet bang zijn van wat mensen met AI doen. Niet zo zeer wat AI uit zichzelf zou kunnen doen.
Dat is duidelijk geformuleerd!. Ik denk ook dat mensen bij AI te snel aan AGI denken. Wat me altijd doet twijfelen of AI wel AI genoemd moet worden. Het zijn in de kern algoritmes, zoals je al zegt dus iets met 'Computing' of zoals we al kennen 'Machine Learning'. ML is tenslotte een subset van A(G)I en daar zijn de genoemde diensten allemaal op gebaseerd.

bron: https://www.freecodecamp....-ml-whats-the-difference/
Kunstmatige slimmigheid of artificial cleverness dekt de lading beter als je het over de huidige stand van de techniek hebt.
Of mijn favoriet: artificial stupidity.
Aan die koppelingen zijn ze wel in sneltempo bezig met plugins die op het internet kunnen surfen, of de Windows AI die systeem-instellingen zal kunnen wijzigen. Ik denk dat momenteel nog een stuk continue terugkoppeling van resultaten ontbreekt, maar ik vermoed niet dat het erg lang gaat duren voor een AI (onbedoeld) ver van het pad van de oorspronkelijke vraag kan geraken en daarmee acties onderneemt die je niet bedoeld had.
Dat is per definitie zo, en daarom is AI lang niet zo makkelijk als de meeste denken. Het is een soort van Djinn die vrij letterlijk je wens zal vervullen, maar of het dan ook daadwerkelijk iets is wat je wilt, is een 2e. De hele ontwikkeling van ai draait om meer leersets, meer inputs, meer outputs, zodat die kansberekening steeds meer accurater wordt. Het zijn geen waarzeggingsengines, ze berekenen hooguit wat het dichts mogelijk bij het gewenste antwoord ligt.

Computer virussen en dergelijk zijn ook in staat om de dingen te doen die jij zegt. Sure, dit zal heus wel een ding worden met AI, maar om er van wakker te liggen? Om te denken dat dit de beginselen zijn van Skynet? Nah ... Als AI inderdaad een hoop kapot maakt in windows instellingen omdat hij de opdracht gekregen heeft om dat te beheren dan ... Well, moet die Bot gepatched worden, komt er een update, en gaan we weer verder, net als in alle andere takken van IT.

Zo'n bot zou dingen dan hooguit verkeerd doen, maar het is echt niet dat hij ineens op eigen houtje totaal iets anders gaat doen, tenzij iemand dat er in geprogrammeerd heeft, kortom, het zijn nogal altijd de mensen waar je bang moet voor zijn, niet het gereedschap.
Stephen Hawking was er bang voor. Toch wel een man om serieus te nemen.

https://www.bbc.com/news/technology-30290540
Stephen Hawking was een computerwetenschapper?
Een theoretisch fysicus. Die sla ik hoger aan dan een computerwetenschapper. Ook op het gebied van AI. (of misschien wel juist op het gebied van AI :))

[Reactie gewijzigd door mjtdevries op 22 juli 2024 15:23]

Echt waar? Ik ben een fysicus en ik vind toch echt dat computerwetenschappers meer weten over computerexpertises (AI), en dat Hawking meer wist over zwarte gaten dan de gemiddelde computerwetenschapper
Zoals @kruimel0 ook zegt, de man is een fysicus, die praat dus over een hypothetische situatie die hij kan beschrijven als fysicus zijnde. Hij omschrijft dan dus ook een SkyNet achtige AI, en dus absoluut niet hetgeen wat ChatGPT en consorten is.

Dus zijn verhaal is daarom heus niet minder waar. En zijn waarschuwing absoluut een terechte.

Maar hij praat niet over hetgeen wat we nu AI noemen, is heel wat anders. Dit zijn kans berekenings engines, die denken niet ofzo.
Ze hebben er nota bene plaatjes van 2001: A Space Odyssey erbij zitten in dat artikel. En ze halen Musk er zelfs bij alsof dat ook maar iets helpt 8)7
hypothetische situaties beschreven door Sam Altman, een SkyNet achtige AI, en dus absoluut niet hetgeen wat ChatGPT en consorten is.

Maar hij praat niet over hetgeen wat we nu AI noemen, is heel wat anders. Dit zijn kans berekenings engines, die denken niet ofzo.
Als de definitie niet eenduidig is, hoe wil je dan iets benoemen?

Musk refereert vaak naar veel verschillende literatuur; die heeft zijn bronverwijzing meer dan prima op orde, met meer dan Asimov in zijn quote library. En Musk is vooraf al ge-peer-reviewed, ofwel: die komt beslagen ten ijs (met consorten).

Maar het punt van die 2001-verwijzing is dat bigtech AI decennia op de agenda heeft staan, en in de academische (en science fiction) wereld staat AI al minstens sinds begin jaren 60 hoog op de agenda. Ik noem ze graag excentriekelingen.

Overigens, die Chatgpt modellen zijn ondertussen al ingedeeld in families, generaties en versies. Niet veel anders dan bij computertalen

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 15:23]

dat wel, maar heel die generatie denkers liep vast, niet in de minste plaats vanwege Einstein.

Opvallend genoeg vond Einstein Immanuel Velikovsky de slimste man van hun tijd.

Als je het mij vraag zijn ze helemaal losgeslagen, die Amerikaanse academici. kijk nou naar zo'n Kaku, of al die anderen die feit en fictie amper meer van elkaar kunnen onderscheiden.
Nee de AI zelf gaat niet snel de wereld overnemen. Voor nu zit de zorg in de menselijke eigenaren en bestuurders. Zelfs het relatief slimme GPT4 kan niks echt beslissen, en kan niks leren uit eigen overweging. Het wordt allemaal door mensen gemaakt en alles dat deze modellen doen wordt door een mens gevraagd. Geen prompt = geen actie. En een taalmodel heeft niet alle andere modaliteiten zoals begrip van de fysieke wereld of het internet. We zijn nog best ver verwijderd van eigen agentschap en bewustzijn, en het meeste onderzoek gaat ook niet in die richting maar draait om meer praktische doelen.

Het is o.a. het winstoogmerk en onzorgvuldigheid van de makers en gebruikers waar we om moeten denken, net als voorheen bij eerdere technologieën.
AI is al op een punt waar het zijn eigen scripts schrijft, je loopt 20 jaar achter.
Laat mij eens een geval zien waar dat gebeurt zonder dat een mens er opdracht toe geeft. Dus waar het echt gaat om eigen agentschap van de AI zelf; een werkelijk eigen besluit op basis van eigen doelen en overwegingen. Ik wacht wel.
Al uit 2021..

https://www.nytimes.com/2...-intelligence-coding.html

Al in 2018 kon AI zichzelf herprogrammeren.
Sorry maar je droomt als je denkt dat AI een soort veredeld script is wat puur gemaakt word door mensen, dat is allang niet meer zo en dit is dan ook waarom grote namen waarschuwen regelgeving te gaan maken en is des te vreemder dat figuren zoals uit het bericht, liever niet al die vervelende regeltjes wil want gut gut, je zou maar eens verantwoordelijk gehouden gaan worden voor de ellende die ze aan het scheppen zijn of al geschept hebben.

[Reactie gewijzigd door Bozebeer38 op 22 juli 2024 15:23]

De kop van dat artikel zegt "AI can now write its own computer code". Het artikel maakt echter duidelijk dat mensen een prompt ingeven en dan code terugkrijgen. Dat heeft dus niks te maken met een eigen overweging, een eigen keuze uit een eigen impuls. Deze draad gaat specifiek over de vergelijking met Skynet, die dat allemaal wel deed (gelukkig fictief).

De huidige taalmodellen zijn erg indrukwekkend, maar het concept intelligentie is vele malen breder dan het domein dat deze modellen nu beheersen. Deze modellen snappen heel veel maar bepalen niks.
Wat je terug krijgt is een code wat het AI zelf geleerd heeft te geven.
Dus of jij leest het verkeerd of je begrijpt het niet.

Zelf lerend.
Snap je dat wel?
Ze "leren" geen dingen zoals wij die leren, de AI kan geen mentale verbindingen maken tussen dingen waar het niets over weet, wat wij als mensen wel kunnen.

Echt alles dat een huidig AI zoals ChatGPT uitspuwt is letterlijk een kopie van elders die aan elkaar verbonden is met gewichten van de kans dat het volgende segment aan het vorige segment hangt.

Dus als een AI zegt: "Dus of jij leest het verkeerd of je begrijpt het niet."

Wat de AI "weet" is enkel een reeks gewichten tussen de woorden en wat het volgende woord waarschijnlijk is verzameld in een vector database. Dus in de AI is de zin zoiets als gebaseerd op de context "Dus (50%) of (70%) jij (80%) leest (40%)" etc en enkel omdat de andere woorden minder gewicht hadden heeft het precies die zin uitgespuwd.
En @Bozebeer38
Precies. Het is een reeks kansberekeningen, "wat is het meest waarschijnlijke volgende woord als ik kijk naar het gemiddelde van wat ik heb gelezen"? Hij heeft geen "idee" van wat hij aan het zeggen is. Dat is geen gedachte of creativiteit, enkel een reeks formules die zeggen dat dit woord een groter kans heeft om correct te zijn dan dat woord.

Een SkyNet creëren zou best mogelijk zijn, maar dat moet je bewust doen. Dan heb je een evil-robot-mastermind omdat iemand dat zo gemaakt heeft. Niet omdat hij zelf tot die conclusie is gekomen ofzo, dat is onzin. En wat betreft heb je niet eens AI nodig, koppel nuclear launch sites aan een randomizer ofzo, en je hebt je apocalypse machine. Beetje onwaarschijnlijk, net als SkyNet. Mensen die denken dat SkyNet een gevaar is van deze vorm van AI snappen simpelweg niet wat het is of hoe het werkt.
Neurologische netwerken bestaan al, die “denken” wel degelijk.
Ook wat jij denkt is niets meer dan een prompt immers.
In ieder geval is de AI waar we nu hier over praten dat niet en hoef je ook niet bang te zijn dat dit een weg naar SkyNet is.
Neurologische netwerken zijn ook gebaseerd op kansberekeningen, een filter, we weten nog steeds niet hoe het brein echt werkt om een echt neurologisch netwerk te bouwen.

Je moet ook een definitie geven van 'denken', 'intelligentie' en 'bewustzijn' alvorens zulke claims te maken.
Neurologische netwerken bestaan al, die “denken” wel degelijk.
Ook wat jij denkt is niets meer dan een prompt immers.
Ja; die bestaan inderdaad al. Ter grootte van het brein van een veldmuis, zo ongeveer.
Waarschuw je ons even wanneer veldmuizen spontaan op twee poten gaan staan en passages uit de collectieve werken van Shakespeare gaan reciteren in lopend Engels?

[Reactie gewijzigd door R4gnax op 22 juli 2024 15:23]

Kansberekening engines die met behoorlijke accuraatheid het gedrag van een veldmuis kan simuleren is nog niet bepaald hetzelfde als een daadwerkelijk veldmuisbrein. Dat ze shakespeare gaan citeren lijkt me dan niet eens raar, als iemand de research erin steekt om dat specifiek mogelijk te maken (koppel het aan chatgpt, en dan ben je er al waarschijnlijk). Nogmaals, dat gaat het echt niet zomaar uit zichzelf doen.

/edit: besef me nu dat je dit waarschijnlijk meer sarcastisch bedoelde, en is het meer een aanvulling gericht aan @Bozebeer38

[Reactie gewijzigd door Zoop op 22 juli 2024 15:23]

Nee. Ik had het echt over het feit dat er neurologische netwerk simulaties zijn die dus een echt brein simuleren als synapses. Maar veel groter dan het brein van een veldmuis komen ze niet en het vergt enorm veel rekenkracht.

Dus uit de hoek neuraal netwerk hoef je, tenzij ineens blijkt dat veldmuisjes toch behoorlijk intelligent zijn en de mensheid collectief al jaren in het duister gelaten hebben, niet bang te zijn voor SkyNet situaties.

Snappie? ;)
Ah zo, zeker. Maar al konden ze al een compleet mensenbrein simuleren, dan nog is het maar een simulatie die net alsof kan doen dat het een mens is.
Natuurlijk zijn deze modellen slim. Natuurlijk leren ze dingen, daarom heet het Deep Learning. Dat leermodellen zelf beslissingen nemen richting een antwoord na het ontvangen van een prompt of opdracht is al heel indrukwekkend, maar is tegelijk ver verwijderd van Skynet. Zoals ik hierboven schreef zouden er dan geheel eigen impulsen moeten zijn, angsten, voorkeuren, bewustzijn, een eigen wil. Dat is er niet.

Alle grote risico's rondom deze modellen komen van mensen. De mensen nemen de werkelijke besluiten. Dat is een heel belangrijk onderscheid, zodat we niet de AI de schuld gaan geven van wat mensen doen. En zodat we ons meer zorgen blijven maken over de menselijke beslissers dan de AI zelf, want daar zit voor nu het veel grotere risico.

Laat je niet te veel gek maken door de evangelisten. Deze modellen zijn zeker wel slim en indrukwekkend, maar doen niets vanuit een geheel eigen overweging. En dat zou nodig zijn voor Skynet-achtige praktijken.
Toen ik vroeg aan chat gtp over zijn code. Vertelde het me dat het geen toegang heeft tot zijn eigen code. Dat is bewust gedaan. Zelfde als niet direct aan internet hangen. Heb een paar filmpjes en interviews gezien van ai. De mensen zijn echt bang. Vragen stellen als hoe dood ik een persoon voor 1 dollar, worden al opgevangen. Corona virus namaken kan met ai. Ook nu al en daar moeten allemaal regels voor komen, zodat gekken geen bio wapens gaan maken.

Toen ik vroeg naar de iq score van een ai. Zei het dat het nog geen iq test kon maken zoals mensen dat kunnen. Het kon me wel aangeven wat voor verbeteringen het nodig acht om straks in de toekomst iq tests te kunnen maken.
Je bedoelt zoiets als getraind worden in het Engels, maar dan kunnen antwoorden in het Perzisch?

https://youtu.be/xoVJKj8lcNQ?t=1795
Nee ik bedoel dat chatGPT dat geheel uit zichzelf zou doen. Bijvoorbeeld vanwege nieuwsgierigheid of een andere mensachtige impuls. Dat komt niet voor; ze doen wat ze gevraagd worden. Ik denk dat lezers hier vaak het verschil vergeten tussen slechts slim reageren/antwoorden en echt zelf handelen met eigen agentschap. Deze modellen zijn echt enorm indrukwekkend; begrijp me niet verkeerd. Maar voor een Skynet-vergelijking zou echte eigen agency en bewustzijn nodig zijn.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:23]

dat snap ik, maar heb je het filmpje ook een stukje bekeken?

Toevoeging: het gaat nl iets verder in het filmpje over 'theory of mind', en ook daar schuiven we snel op

[Reactie gewijzigd door Ghar op 22 juli 2024 15:23]

Ja, het filmpje laat indrukwekkend begrip zien van taal en symbolen, scheikunde en meer. En die kunde blijkt toepasbaar op soorten informatie waar het niet op getraind was. Dat is nogmaals erg indrukwekkend, maar een heel ander niveau dan bewustzijn, eigen inbreng, eigen agentschap. De vergelijking met Skynet legt de lat daar, en niet lager. Er zou op z'n minst overlevingsinstinct moeten zijn, wat zorgt voor een angst voor mensen, dan de wens om mensen uit te roeien, en de uitvoering daarvan. Niets daarvan is aanwezig in de huidige modellen.

Intelligentie is een enorm veelzijdig concept. Bepaalde delen zijn nu aardig nagebootst in AI, andere niet.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:23]

en @Ghar
Het zou echter wel theoretisch mogelijk zijn om zoiets te creeeren, een ai die overlevingsinstinct en angst simuleert. Maar dat zou dan specifiek zo gebouwd worden, door mensen. Een AI gaat dat niet zelf zitten ontwikkelen. Je kan indrukwekkende en dus ook enge dingen met AI, maar dat komt dan nog altijd door hoe het toegepast wordt door mensen. Net zo goed dat je met een hamer ook enge dingen kan doen en iemand hoofd inslaan ofzo. Betekend niet dat je dan ineens hamers verboden moet gaan maken, er moet kritischer dan dat gekeken worden als dit een groot probleem blijkt te zijn.

Mijn mening is dan ook dat wetgeving meer moet gaan focussen op effecten en implicaties van AI, dan AI zelf. Neem bijvoorbeeld de geloofwaardigheid van foto bewijsmateriaal in eens rechtszaak, om maar wat te noemen. Je gaat straks een hoop gezeik krijgen waar een hoop wetgeving op achter loopt, terwijl ze nog krampachtig bezig zijn met restricties te leggen op de ontwikkeling van AI (welke je toch niet tegenhoud, het gaat zo tering snel allemaal) .

[Reactie gewijzigd door Zoop op 22 juli 2024 15:23]

Maar voor een Skynet-vergelijking zou echte eigen agency en bewustzijn nodig zijn.
skynet is de agency, net zoiets als bij MiB overigens, waarbij t800 een klassieke autonome cyborg is, en t1000 een 2.0 incarnatie met plasma features.

Maar sinds The Matrix Trilogy is het science fiction genre toch wel aardig herschreven, met blue pill - red pill woohoo.

Anyway, Chatgpt wordt m.n. in service vorm aangeboden.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 15:23]

Google eens op:
  • GPT-4 plugins
  • Langchain
  • Autopilot
  • BabyAGI
Dat zijn toch allemaal door mensen bestuurde gereedschappen? Wat gaan die dingen doen zonder een prompt van een mens? Wie voorziet die dingen van data, van elektriciteit, van alles? Waar is de werkelijke agency?

Nogmaals, het fictieve Skynet heeft echte eigen agentschap en besluit geheel zelf om met taken te beginnen, zoals een kernoorlog, op basis van puur eigen instincten, eigen overlevingsdrang, angsten en voorkeuren. Ik laat me graag verbeteren, maar volgens mij is dat toch echt nog een heel andere tak van sport dan waar de leermodellen nu staan.

Ik snap de angst wel, en wat ik nu schrijf kan relatief snel weer anders zijn. Maar voor nu zou ik toch echt meer kijken naar hoe AI door mensen wordt gemaakt en ingezet als een veel groter risico dan de AI zelf.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:23]

Mijn punt is dat een AI wel degelijk acties kan ondernemen zonder dat je expliciet vraagt om deze acties te ondernemen.

Dat is het hele punt van deze systemen: de AI breekt een probleem op in subtaken en bedenkt zelf op welke manier het dichter bij het doel kan komen. Je kunt vragen "zorg ervoor dat ik zoveel mogelijk paperclips kan produceren" en het systeem weet dat het deze vraag moet opsplitsen in subtaken als "google naar grondstoffen voor paperclips", "google naar aanbieders van ijzerdraad" en "plaats de bestelling". Mits de nodige plugins en menselijke goedkeuring zal de AI inderdaad googlen en (op auth na) de bestelling plaatsen.

Natuurlijk kan een AI geen kernoorlog beginnen als je deze als mens geen toegang geeft tot je kernwapens, dus alles komt "in het begin" neer op menselijke acties. (Het doemscenario waarbij de AI zelf kan achterhalen dat er meer paperclips gemaakt kunnen worden wanneer het de wereld verovert en mensen dwingt om paperclips te maken, is vooralsnog science fiction.) Maar binnen de scope van de zandbak die je aan de AI geeft, kan ie wel degelijk autonoom acties ondernemen.

[Reactie gewijzigd door Enai op 22 juli 2024 15:23]

Natuurlijk heb je gelijk dat het op dit moment technisch mogelijk is om de plugins te maken dat als jij chatGPT vraagt "Zorg ervoor dat ik 1000 paperclips ga maken", hij de ijzerdraad besteld en technisch gezien zelfs een robot kan aansturen om de ijzerdraad naar paperclips te vouwen. Als jij als mens ook een slechte opdracht geeft en genoeg funds geeft om 10.000 paperclips te maken, en je zegt "maak zo veel mogelijk paperclips", zal hij doorgaan.

Echter, het punt dat geert1 wilt maken is dat jij als mens nog altijd de opdracht hebt gegeven om de paperclips te maken, en (impliciet of expliciet) de keuze hebt welke funds en risico's je daarmee wilt nemen. Als die opdracht er nooit komt zal de AI niet er voor kiezen om 1000 paperclips te maken. Als jij de AI geen mogelijkheid verleend om (hypothetisch) paperclips te stelen van mensen, zal de AI dat niet gaan doen. Zolang chatGPT geen eigen bewustzijn en wil heeft, zal het nooit er zelfstandig voor kiezen om 1000 paperclips te gaan maken.
Er is nog een ander groot verschil en dat is dat je moet opgeven HOE je de ijzerdraad maakt. Het verschil tussen een taalmodel zoals GPT en AGI is dat de GPT geen taken 'oplost', het kan het web doorzoeken om de taken te vinden die het nodig heeft om een ijzerdraad te maken maar het kan heus geen 'nieuwe' machine uitvinden die ijzerdraadjes maakt.

Andere modellen (niet GPT) kunnen dan misschien wel erg specifieke zaken 'uitvinden' maar dan enkel door het modelleren van duizenden of miljoenen varianten voor een "betere" oplossing.

Mensen kunnen die mentale sprongen wel maken en we doen wel experimenten maar de meeste experimenten zijn gericht. Een computer maakt het goedkoop om een experiment te doen dus kun je je veroorloven om miljoenen experimenten te doen, maar een AI in de 'echte' wereld gaat failliet zijn na de 3de fabriek te zetten die niet werkt.

Een beter voorbeeld is de verbetering van bepaalde algoritmes. De wetenschappers vroegen aan een AI om een beter algoritme te maken voor hun geluidschip en ze zetten de AI los op een FPGA, het AI kwam na duizenden berekeningen uit om de volledige oppervlakte van de FPGA te gebruiken met een resonant (analoge) brug die ENKEL op die specifieke chip en in die omgeving kan werken. De uitkomst is misschien wel juist, maar geen enkele ingenieur zou dit zo gebouwd hebben. Het is een beetje zoals een vraag stellen aan een Djinn (van Arabische mythologie) - je krijgt een antwoord, maar er is altijd een zwaardere prijs voor de vraag.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 15:23]

Door de grootte van de dataset kan het heel snel gaan. Vergis je niet, de verwachting is, dat de eerste symptomen van agi nu al zo'n beetje beginnen te komen
...
We zijn nog best ver verwijderd van eigen agentschap en bewustzijn
Zit er een stekker in die agent, of wordt die aangestuurd door een user?

En een machine die bewustzijn heeft? Hoe zie je dat voor je? Zoals The Matrix trilogy of zoiets als Skynet?

btw..
Toen die vernieuwde Terminator uit die zwart/wit geblokte vloer omhoog kwam, in deel 2, werd er volgens mij CGI geschiedenis geschreven. De meest geanticipeerde film-productie totdat in 2003 The Matrix Reloaded kwam.

edit:
Deze scene
https://youtu.be/ovq9xOQNamk

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 15:23]

nee, waarom zou je. Dit soort AI "doet alleen maar heel goed een mens na in reacties", maar kan niet zelf nog onbekende verbanden leggen, deze verbanden checken!!!! en daaruit generaliseren om vervolgens ook weer de generalisatie te checken....uit zichzelf. Het blijft vooralsnog wat je er in stopt komt er weer uit.

Dat wil niet zeggen dat AI tools niet handig zijn. Copilot scheelt mij documentatie uitpluizen, daar ik niet dagelijks programmeer. ChatGPT maakt echter een zooitje van specifieke vragen zodra de kennis over het onderwerp nog onder discussie zit.

Met name bronvermelding is iets waar de EU een groot punt heeft en waar juist ook OpenAI kan/moet verbeteren wil hun toolset echt bruikbaar worden voor b.v. ondersteunen van wetenschap .
Ik zie een grote rol voor dit soort AI tools b.v. bij de wetenschappelijke publishers als ze de citaties van de gebruikte bronnen goed krijgen
Pas wanneer onze 'AI' iets uit niet weet te creeren, zal het echte AI zijn. Dit van nu nog lange na niet.
Hey Skynet, Nuke the chinese from last night!

Skynet: Understood, launching ICBM.Target: Beijing.

No! NO! STOP! ABORT!

I meant put the Chinese take out in the microwave.
Wie denkt dat NORAD niet allang een soort van computergestuurde intelligentie toepast om te bepalen of er gereageerd moet worden op iets dat gedetecteerd wordt - en denkt dat men zal twijfelen om dat advies te volgen of het beter te weten - is naïef.

Wie denkt dat je een ICBM nodig hebt om ergens iets te laten afgaan - als je dat echt wil - is dat ook 😀
Wie denkt dat NORAD niet allang een soort van computergestuurde intelligentie toepast om te bepalen of er gereageerd moet worden op iets dat gedetecteerd wordt - en denkt dat men zal twijfelen om dat advies te volgen of het beter te weten - is naïef.
WOPR :*)

Maarja, ik denk wel bijna zeker dat ze zoiets hebben.
Dat je met een magnetron iets kan "nuken" is sowieso kul natuurlijk. Je moet wel wat meer energie toevoegen voordat je een watermolecuul zo hard schud dat de neutronen vrij komen.

Een klein onderzoek geeft aan dat dit ontstaan is omdat een magnetron het voedsel met straling verwarmt, en tja, het was de tijd waarin straling ogenblikkelijk met kernenergie werd geassocieerd. Een van de domste associaties ooit als je het mij vraagt.

Goed, ik ga even mijn auto starten, ik moet op bezoek. Ik hoop dat ik het wegdek niet hoef te nuken op de terugweg.
Nette voorstellen. Er moet erg voorzichtig omgegaan worden met AI. Best eng eigenlijk dat OpenAI de kont tegen de krib gooit als ze verantwoordelijkheid moeten gaan nemen. Beter worden er AI tools binnen de EU ontwikkelt die voldoen aan deze voorwaarden.
Best eng eigenlijk dat OpenAI de kont tegen de krib gooit als ze verantwoordelijkheid moeten gaan nemen.
Dat maakt Tweakers ervan.. Lekker clickbait...
Zijn antwoord is toch echt wel genuanceerder: "We zullen ons best doen om aan de wetgeving te voldoen, maar als dat niet lukt, zullen we stoppen met het aanbieden van onze diensten in de EU."

Dat is letterlijk het antwoord wat iedereen zou geven. Want als je niet kunt voldoet aan wetgeving is het afwachten tot je aangeklaagd wordt. Resultaat is een gigantische boete. Het zou totaal onlogisch zijn om zeggen "We zullen ons best doen om aan de wetgeving te voldoen, maar als dat niet lukt, zullen we doorgaan met het aanbieden van onze diensten in de EU."
Het enge gedeelte is dat wanneer ze zich niet aan de AI wetgeving kunnen houden, dat alleen het geval is, wanneer ze onverantwoordelijke dingen doen.

En dan zou je dus moeten stoppen met het aanbieden van je diensten overal op de wereld.
Puur vanuit moreel besef.

Maar geld is voor hen duidelijk belangrijker. Ook al schaden ze daarmee grote groepen mensen.
Dat is het enge.
Helemaal mee eens. Maar het is ook wel een complex verhaal.
Als je de interviews luistert (zoals deze) dan zie je dat deze man echt wel goed in het spel zit of een enorm goede show opzet, wat in het verleden ook wel gebeurd is.

Het is in ieder geval goed dat er snel en open over gepraat wordt.
Het is een antwoord wat je mag verwachten van bedrijven die wetgeving respecteren wat betreft gevolgen als ze niet kunnen of willen voldoen. Maar de bedoeling van de wetgeving is in de eerste plaats dat proberen aan de wet te voldoen niet genoeg is. Het niet zomaar accepteren van een bedrijfmodel met AI komt al omdat dit soort bedrijven al te weinig moeite doen, niet omdat ze zo vooruitstrevend zijn op die punten waar nu zelfs wetgeving voor moet komen. Ik lees het bedrijf niet stellen dat ze de verwachting hebben er veel inspanning voor te willen doen, maar ondertussen wel waarschuwen dat ze mogelijk weg gaan.
Verwijderd @kodak25 mei 2023 18:55
Het is daarentegen onmogelijk om te voorspellen wat de politici allemaal gaan bedenken. Wat je ziet is altijd een financiële afweging, als het meer geld (of risico) kost om te voldoen aan wetgeving (terwijl je bijvoorbeeld in de rest van de wereld verder kan) dan is vertrekken de meest financiële keuze.

Het kan ook zo zijn dat AI een nieuwe wapenrace wordt (verwacht ik wel) en dat er ook politieke druk op organisaties zoals OpenAI wordt gevoerd door de verenigde staten. In China zullen ze waarschijnlijk deze discussie niet hebben (aanname).
Begrijp nog steeds niet goed hoe een open en transparant project “omgebouwd” wordt naar een gesloten commercieel product. Waardoor gekke fratsen achter gesloten mogelijk zijn.

[Reactie gewijzigd door himlims_ op 22 juli 2024 15:23]

Door het aan te bieden als service of appliance, maar bij die laatste is een vorm van koppelverkoop een garantie.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 15:23]

Al die kortzinnige reacties van dat we dan maar geen ChatGPT (achtige) diensten hebben in de EU. Als de hele wereld AI-diensten mogen gebruiken en wij als EU niet dan loop je op een gegeven moment achter op de rest van de wereld. De EU lijkt de AI-race te verliezen op het gebied van ontwikkeling (waar is onze eigen fatsoenlijke variant van ChatGPT?) en als door de EU-wetgeving dit soort diensten ook niet meer beschikbaar zijn en rest van de wereld wel zie ik dat als een serieuze bedreiging. Nu staat ChatGPT en consorten redelijk in de kinderschoenen maar elke update wordt het geavanceerder en beter.
Er zijn ondertussen meerdere taalmodellen die je ook prima zelf op moderne hardware kan hosten (tot op telefoons aan toe). Waarschijnlijk afgedicht met patenten, maar ik snap die obsessie met ChatGPT niet zo. Er wordt op ingezet dat OpenAI de grote winnaar wordt van de AI 'race', maar dergelijke hoge verwachtingen en investeringen vereisen ook een heel grote omzet. De geschiedenis ligt bezaaid met de restanten van bedrijven die ooit heel machtig leken maar toch voorbijgestreefd werden.
Die worden ook allemaal verboden met de EU AI act. Als een gigant niet aan de juridische eisen kan voldoen, is de rest kansloos
Precies dit. De open-source community is ook zwaar de lul: https://technomancers.ai/...-us-open-source-software/
Vraag me toch af hoe je dat wil gaan verbieden. AI algoritmes zijn nl. gewoon berekeningen. Mensen verbieden berekeningen met een computer te doen klinkt een beetje als verbieden met messen te snijden of met auto's te rijden.
Ik zie veel paralellen met de cryptografie discussie waar overheden perfecte cryptografie voor de 'good guys' willen maar volledig transparant inzage in communicatie van de 'bad guys' en de inherente onmogelijkheid hiervan niet willen zien.
Denken dat we gedoemd zijn bij het achterlopen op deze AI is net zo kortzichtig.
Daarbij zouden ze deels verantwoordelijk worden voor hoe hun AI-systemen worden gebruikt.
Ah mooi, dan kan ik dus ook aannemen dat schroevendraaier fabrikanten ook deels verantwoordelijk worden gehouden wanneer er een als wapen gebruikt wordt. En Facebook wordt ook wordt verantwoordelijk gehouden voor de haatberichten die daar gepost worden? Rekenmachine fabrikanten wanneer accountants met cijfers toveren? Of gaan we nu even alleen AI belemmeren want 1) het is de rage en 2) ze hebben er niet zo heel veel verstand van. Zo’n large language model of classifier zijn niets meer dan kansberekeningen voor het vormen van een zin of classificatie. Dat iemand misbruikt maakt daarvan of de verkeerde informatie waarneemt zonder na te checken, dat is toch echt een gebruikersfout.
Ook moeten ze onder het nieuwe voorstel duidelijker maken welk auteursrechtelijk beschermd materiaal ze hebben gebruikt om hun generatieve-AI-modellen te trainen.
Okay, dit is logisch, maar niet 100% haalbaar. Mocht er data van buiten pregedefinieerde datasets komen, lijkt me dit inderdaad wel netjes. Ik ben benieuwd hoe dat data van bijvoorbeeld Twitter of Gettyimages, waar dan wel voor “betaald” is, maar niet per se de de auteur, aangepakt wordt.

[Reactie gewijzigd door BiaggioLuciano op 22 juli 2024 15:23]

Ah mooi, dan kan ik dus ook aannemen dat schroevendraaier fabrikanten ook deels verantwoordelijk worden gehouden wanneer er een als wapen gebruikt wordt.
\

Dat is niet het argument. Het gaat er om dat elke fabrikant ook die van de schroevendraaier een deugdelijk, gekeurd en aan de regels voldoend product moet leveren.

Dat moet ook voor AI tellen. We moeten dus informatie krijgen van OpenAI waarmee we kunnen bepalen of het product deugdelijk is. Dat is anders dan ieder soort van misbruik van een deugelijk product voorkomen.
Ah, dan is het artikel onduidelijk, want mijn citaat gaat over gebruik. Toegegeven, ik heb alleen dit artikel gelezen ivm de wet, dus misschien is de werkelijkheid anders.

Natuurlijk mee eens dat een product de regel-/ wetgeving moet volgen, maar buiten dat moet nog steeds niet verwacht worden dat een individu dat niet kan misbruiken.
Elk ding dat bestaat is ooit misbruikt voor kwaad. Het is niet te vermijden zo ongeveer. Maar als je een bom gooit of een hamer. Ze moeten beide een deugdelijk product zijn🤣
Tot op zekere hoogte heb je gelijk. Echter zou AI veel verder kunnen gaan dan wat je met een schroevendraaier kunt doen.

Misschien zou je dat eerder kunnen vergelijken met wat een leek zou kunnen doen als iedereen een atoombom zou kunnen aanschaffen. Er zijn niet voor niets grenzen aan wat wel en niet beschikbaar mag zijn voor iedereen, en daar zijn redelijk duidelijk gedefinieerde grenzen voor (al zijn die niet in elk land en/of werelddeel gelijk).
En Facebook wordt ook wordt verantwoordelijk gehouden voor de haatberichten die daar gepost worden?
Ja; dat worden ze inderdaad. Nieuws over de Digital Services Act (DSA) niet meegekregen? Artikel 6b verplicht hosting diensten op te treden tegen illegale inhoud zodra deze kenbaar wordt gemaakt aan hen, anders worden zij aansprakelijk voor deze inhoud. Opruiing; oproepen tot geweld; etc. zijn. illegaal en als deze gemeld worden, zijn hosting-diensten verplicht deze ontoegankelijk te maken.

[Reactie gewijzigd door R4gnax op 22 juli 2024 15:23]

Hoezo "dreigt"? Dan doen ze dat toch lekker? Niet echt een dreigement als er niemand van wakker ligt.
Hoezo "dreigt"? Dan doen ze dat toch lekker? Niet echt een dreigement als er niemand van wakker ligt.
OpenAi is een van de voorlopers in de race. Een race waar maandelijks miljarden in gestoken worden en waar de verwachtingen enorm hoog van zijn. Als je die van de markt haalt heeft dat enorme impact op hoe we er mee leren omgaan.

Ik lig er niet wakker van maar weet wel dat het een grote impact heeft als een van de vijf grote spelers van de markt gaat en elders gewoon doorgaan. Ik bergrijp dat je AI wellicht niet als erg belangrijk ziet, maar nogmaals een emerging technology waarin zoveel geld word gepompt hebben we zelden (of misschien nooit) gezien.

Ik ben geen grote voorstander van overheden die algoritmes en AI willen gaan controleren, Niet alleen omdat het buitengewoon (zeg maar extreem) moeilijk is om te doen en te bepalen, maar ook omdat onze gewone wetgteving waarschijnlijk genoeg mogelijkheden kan bieden. Als een bedrijf mensen gaat discrimineren, of dat nu door een mens of een algoritme is, kan je dat gewoon aanklagen. Ik zie ambtenaren nog niet tegenover de allerslimste mensen zitten om uitgelegd te krijgen hoe een AI bot tot een bepaalde conclusie komt. En dan de week erop weer omdat de AI zich blijft ontwikkelen.

We moeten de effecten monitoren. En waar mogelijk de kwalijke effecten bestraffen.
De woorden "een race waar maandelijks miljarden in worden gestoken" heeft bij mij eerder de gedachte aan mining/metaverse en NFT's dan aan succesvolle producten die we écht niet kunnen missen.
Maar AI gaat wel degelijk een grote impact (kunnen) hebben en als de EU daarbuiten ligt zijn wij binnen no time helemaal uitgespeeld. Je kunt het voor jezelf irrelevant/onnodig vinden maar de mogelijkheden en impact van AI zijn heel groot. Nou hoeft dat niet per se deze AI te zijn, maar het is wel een van de bedrijven die veelbelovend zijn tot zover.
Met deze redenatie kan je nooit een regel stellen. Dat heet een race to the bottom. En daar hoef je niet per se in mee te gaan, want als we dat doen dan gaan we geen goede samenleving creëren. Natuurlijk moet je de concurrentie-positie ook meenemen. Maar da's nou net het voordeel van de EU, te groot om te negeren. Als ChatGPT het niet doet dan doet een volgende (EU?) partij het wel.
Degene die er miljarden in steken hebben het volgens Google al fout. Open Source modellen lijken de snelste en beste te zijn.
https://hackaday.com/2023...ompete-google-and-openai/

Misschien minder miljarden in steken en echt aan het werk gaan met die die het beste werk presenteren. Waarom moeten we alles aan de grote 3 ( Microsoft, Google en Meta) overlaten? Het kan best kleinschaliger en je hoeft er geen sociale schendingen mee uit te voeren. (auteursrecht, privacy schendingen,...)
Dit lijkt op gedrag om je juridische, technische en ethische verantwoordelijkheden als bedrijf af te schuiven wanneer blijkt dat je uiteindelijk een Frankenstein monster hebt gecreëerd. Des te meer rede om deze situatie inzichtelijk te maken rondom AI en alvast na te gaan denken om denkpatronen en protocollen op te zetten rondom het gedrag van AI. Ook al is dit misschien moeilijk te realiseren en te herleiden welke denkpatronen en correlaties er gemaakt zijn.
Het begon als een wetenschappelijk non-profit project, maar ondertussen is het gewoon een commerciëel bedrijf met heel andere belangen en enorme budgetten. Daarmee komen betere kansen en mogelijkheden maar ook grotere verantwoordelijkheden.

Niemand lijkt het te willen zien, maar ik geloof er heilig in dat de defensie-industrie wel weer een manier vindt om hier gebruik van te maken.

Ja, we kunnen de huidige AI voor mooie dingen gebruiken, maar de mensheid zoekt altijd naar mogelijkheden voor financiëel gewin - en daarin ligt het gevaar.
Ah, Als door een angel gestoken. Bewijst wat mij betreft dat er een vinger op een zere plek wordt gelegd en dat men dus op het goede spoor zit met de regelgeving.
Precies!
Dit is een afspiegeling van het probleem van AI ed:
Teveel macht bij 1 persoon.
De directeur is op zijn tenen getrapt en kan heel de EU uitsluiten...
Dezelfde persoon heeft invloed op wat de rest van de wereld aan informatie krijgt voorgeschoteld.
Hij kan naar hartenlust en vooral tegen betaling bepalen wat mensen aan informatie tot zich nemen.
Dan stoppen ze toch lekker in de EU, als je je niet aan de Europese wetten kan houden dat ligt toch echt aan hun zelf.
Wel jammer voor de gebruikers in Europa. Genoeg mensen/bedrijven hier die veel tijd hebben gestopt om hun processen met AI te ondersteunen of te optimaliseren. Overigens vind ik de regels meer dan redelijk, dus ik hoop dat OpenAI zich daarop aanpast.
Hmm, een AI 'leert' van informatie, en op basis daarvan kan kennis worden verspreid. Het feit dat er van auteursrechtelijk beschermde bronnen geleerd wordt, is niets anders dan hoe wij, mensen - niet AI, onze kennis verbreden. Natuurlijk is het frustrerend dat je niet voor je werk betaald krijgt als dit door een AI als bron gebruikt wordt. Maar aan de andere kant, hoe vaak krijg je betaald als je kennis op het internet deelt? Of het nu gaat om een hint geven aan iemand op Stack Overflow of GitHub, ik zie er nooit geld van.

Natuurlijk is het beter om dingen vooraf te bespreken dan ze achteraf uit te vechten, maar helaas is dit weer een voortgaande ontwikkeling in de informatiemaatschappij waar we helaas opnieuw een weg in moeten vinden.
Wettelijk gezien is lezen niet kopiëren maar het kopiëren van data in digitale vorm wel.

Dit is wettelijk gezien buiten discussie, ze hebben een licentie nodig of moeten een beroep op fair use doen. Het is uiteindelijk maar de vraag of ze dat zelfs in Amerika krijgen, zal of een nieuwe wet nodig hebben of een uitspraak van de Supreme Court voordat het zeker is.
Maar de vraag is dan of een AI een kopie maakt van de data of deze alleen maar gebruikt om een LLM op te bouwen. Maar je hebt gelijk, de huidige wetgeving zal hier niet of niet afdoende in voorzien.
Geen een LLM traint met data direct van het internet naar RAM naar LLM.

De data word eerst gekopieerd in de trainings set op vaste opslag. De kopie naar RAM voor de LLM kan daarboven op ook nog inbreuk zijn, hangt een beetje af van de rechter. Dan pas kom je bij de vraag aan of de transformatie in gewichtsveranderingen van het netwerk kopiëren is. Maar dat er een kopie is gemaakt vanuit auteursrechtelijk oogpunt is dan al lang en breed honderd procent zeker, die laatste vraag hoeft daar niet voor beantwoord te worden.
Als een mens op basis van bestaande werken een nieuw werk maakt dan is dat gewoon toegestaan - het groter verschil met AI is dat AI geen intentie heeft. Dmv AI afgeleide werken hebben dus veel meer het karakter van een kopie (machinaal) dan het karakter van een nieuw werk.

Op dit item kan niet meer gereageerd worden.