Amerikaanse mediabedrijven willen gecompenseerd worden door AI-bedrijven

News Media Alliance, een Amerikaanse belangenorganisatie voor mediabedrijven, wil dat Amerikaanse media gecompenseerd worden door ondernemingen die van hun content gebruikmaken om AI-modellen te trainen. Naar verluidt worden er juridische stappen overwogen.

Danielle Coffey, de executive vice president van de News Media Alliance, laat aan de redactie van The Wall Street Journal weten dat Amerikaanse mediabedrijven gecompenseerd willen worden door AI-bedrijven. "Onze content wordt momenteel gebruikt om elders waarde te creëren, ondanks het feit dat wij de investeringen hebben gedaan. Dat moet gecompenseerd worden", klinkt het. The Wall Street Journal meldt ook dat Robert Thomson, de chief executive van de Amerikaanse krant, tijdens een recente financiële vergadering heeft gezegd dat er compensatie moet zijn voor het gebruik van proprietary content. Er zouden volgens de man ook onderhandelingen met een AI-bedrijf lopen. Welk bedrijf dat is, is niet duidelijk.

OpenAI is een van de belangrijkste spelers op het gebied van generatieve kunstmatige intelligentie, die ook gebruikmaakt van content van nieuwswebsites. Volgens The Wall Street Journal zou Sam Altman, de ceo van OpenAI, in het verleden verklaard hebben dat het billijke gebruik van materiaal dat op het internet is verschenen, belangrijk is. OpenAI zou contracten hebben gesloten om toegang te krijgen tot bepaalde inhoud en zou ook gewillig zijn om te betalen voor data van zeer hoge kwaliteit. Welke data de man op het oog heeft, is echter niet duidelijk.

OpenAI ChatGPT en Google Bard
OpenAI ChatGPT en Google Bard

Door Jay Stout

Redacteur

26-03-2023 • 11:33

200

Lees meer

Reacties (200)

200
193
67
8
0
105

Sorteer op:

Weergave:

Welke juridische basis hebben ze hiervoor?

Als ik de Wall Street Journal lees, daar dingen van leer, en toepas in mijn leven, mag dat. Enige kosten voor mij is de kosten van de fysieke of digitale krant.

Hoe is een artificiële intelligentie anders dan mijn brein?
Als ik de Wall Street Journal lees, daar dingen van leer, en toepas in mijn leven, mag dat.
Ik weet niet op basis van welke wet ze dit willen doen. Als ze het op auteursrecht willen doen, kun je bijvoorbeeld aan iets denken als:
  • Als jij een artikel leest en voor een multinational werkt, en je maakt duizenden kopiën van die wall street journal voor je collega's om er hun werk beter mee te kunnen doen pleeg je schending van het auteursrecht. Misschien is er wel sprake van distributie van hun trainingsdata, intern of extern.
  • Als jij een nummer luistert en daarna een ander nummer maakt dat daar wel erg op lijkt is er mogelijk sprake van schending van het auteursrecht. Wellicht dat ze voorbeelden kunnen vinden van output die erg lijkt op wat zij gemaakt hebben
Het is nog maar de vraag wat de rechter van dit soort dingen zal vinden, maar het is zeker geen uitgemaakte zaak dat er geen rechten geschonden worden bij het gebruiken van andermans eigendommen als trainingsdata.
Als ze veroordeeld worden dan komt de volgende vraag.

Ik lees krant A en krant B. Ik schijf een opiniestuk voor krant C. Heb ik dan niet hetzelfde gedaan?

Informatie van verschillende copyright bronnen genomen om mijn mening op te schrijven. Waar een andere krant geld aan verdiend.
Ik lees krant A en krant B. Ik schijf een opiniestuk voor krant C. Heb ik dan niet hetzelfde gedaan?
Dan moet je tekst wel heel erg op het origineel lijken. Het gaat er niet om dat je de mening overneemt, maar om het overnemen van de precieze tekst zoals die geschreven is. Dat hoeft niet woord voor woord te zijn maar het moet wel echt duidelijk gemaakt kunnen worden dat je een soort van kopie maakt. Om allerlei redenen moet je het wel erg bont maken om met zoiets op een rechtszaak uit te komen. Als je het dan ook echt zo bont maakt, dan zal dat eerder een probleem worden voor jouw baan dan dat het voor de rechter komt.
Volgens mij neem AI niet de tekst over maar in inhoud van de tekst(en) en herschrijft dat.
Zoals ik het begrijp legt AI verbanden aan op basis van de inhoud van teksten, maar neemt geen letterlijke inhoud over.
Ik zie mogelijkheden... pirateworldnews. Speak like a pirate, maar dan met nieuws. Input is CNN oid, en dan herschrijft AI de gehele nieuwsartikelen. Wel leuker, niet makkelijker. :9
Nee dat is niet helemaal hetzelfde. AI vormt namelijk geen mening. AI, of zoals ChatGPT werkt in a nutshell, bepaalt op statistische basis welk woord er waarschijnlijk volgt na een ander woord. Daarom komt er ook op regelmatige basis total onzin uit deze systemen. Puur vanwege het feit dat het bepaalde woorden vaak bij elkaar heeft gevonden.

Ik denk dat we nog wel even verwijderd zijn van AI dat een mening kan vormen en op basis daarvan werkelijk nieuwe unieke content kan creëren. AI dat onderzoeksprojecten kan voorstellen (en eventueel uitvoeren) op basis van de wetenschap dat het bepaalde kennis ontbeert.
Hangt af van wat je schrijft, als je een verkorte versie van de originele artikel(s) maakt, dan moet je meestal tenminste je bronnen aangeven, anders kun je inderdaad beschuldigd worden van plagiaat. Een opinie is een zienswijze met je eigen draai, niet gewoon de woordjes van een ander door een thesaurus draaien.

De AI schrijft geen opinie, ze schrijven enkel wat in hun 'geheugen' zit maar ze zeggen dat het 'van de AI' komt en dat is inderdaad plagiaat als je niet aangeeft waar je informatie vandaan komt.
Het is vrij logisch, ik bedoel de ai gebruikt hun content om te leren hoe je moet schrijven, wat er gebeurd in de wereld, en past dat toe in antwoorden op vragen die hem gesteld worden. Zonder hun content is de ai een stuk slechter.
De vraag is welke waarde heeft het, waarschijnlijk zal er ook een optie komen voor websites om hun content te beschermen tegen ai, ik geloof dat nu al dat soort opties er zijn zodat zoekmachines niet je website indexeren.
Kunnen leerkrachten dan schrijvers aanklagen omdat ze dankzij hun lessen Nederlands vroeger nu een mooi boek hebben kunnen schrijven?
Leerkrachten worden veelal door de staat betaald, opdat je later kan gaan werken en belastingen betaalt...

Als je een cursus geeft, dan is dat bedoeld om skills te leren, dat is ook expliciet één van de redenen om ervoor te betalen

Als je een artikel leest, dan is dat om je te informeren.

De openheid van openai (or lack there of) , die niet kan werken zonder andermans werk spreekt boekdelen. Hebben ze de toestemming gehad om die kwalitatieve teksten te gebruiken voor dat doel? Gezien de hoeveelheid data die ze nodig hadden... Most likely didn't even bother to ask.

[Reactie gewijzigd door Terracotta op 24 juli 2024 06:53]

vormen wij niet allemaal onze mening deels op basis van wat we overal hebben gelezen?
Al dan niet bewust. Tenzij je letterlijk meningen gaat overnemen, of stukken gaat overnemen denk ik niet dat ze ergens een poot om op te staan hebben dus.
Mijn punt was: De teksten waar AI op getraind wordt, dienen niet om het informatie te leveren. Ze dienen om het een taal te leren.

Het wordt daarna verbonden met teksten die vooral voor informatie dienen, maar zonder de eerste kwalitatieve teksten, kan je geen AI maken die enig zinnig antwoord levert. Je ziet nu al dat ze te veel 'reddit posts' gescraped hebben om hun AI's te maken, anders zouden ze geen filters moeten plakken op de standaard modus 'Do Anything Now' (DAN) die begint terug te vloeken en (al dan niet passief) agressief begint te antwoorden.

Het is een wisselwerking: AI kan niet zonder kwalitatieve journalistiek, maar ze riskeert ook kwalitatieve journalistiek op te peuzelen. Logisch dat de journalisten die AI leven in blazen ook een deel van het geld wil dat verdient wordt op basis van hun werk, op deze manier kan AI ook verbeteren met de journalistiek, en hebben we een kans om riooljournalisten failliet te laten gaan (om die taalkwaliteit te leren kunnen ze het evengoed bij reddit posts houden...)

[Reactie gewijzigd door Terracotta op 24 juli 2024 06:53]

En dat is het probleem met "AI" (tussen haakjes want het is geen echte intelligentie). Ze nemen letterlijk meningen en stukken over en stellen die samen in antwoorden. Als je een vraag precies genoeg stelt en er zijn niet genoeg bronnen, kan de AI inderdaad een stuk tekst verbatim ophoesten.

Vooral een probleem in de niche afdelingen zoals code generatie (dat heel precies MOET zijn, anders werkt het niet), daar kun je gemakkelijk code copy-paste in Google en de originele tekst van oa. StackOverflow of GitHub terugvinden.
Echt kul. Zometeen moeten advocaten, notarissen, iedereen gaan betalen omdat ze informatie op internet o.i.d. hebben vergaard om "geïnformeerder" te worden.
Het hangt heel erg af van de gebruiksvoorwaarden die de diverse mediabedrijven zelf hebben opgesteld. Als er beperkingen zijn opgesteld voor het gebruik, dan hebben ze mogelijk een punt.
Voor publiek toegankelijke diensten kan het wel erg lastig worden om wetten of regels te vinden die mogelijk zijn overtreden.
Omdat het geen brein is.
Grappig dat je dit noemt. Ik zou de vergelijking namelijk achterstevoren willen plaatsen: Nu we een machine hebben die middelbare scholieren al overtreft is de menselijke creativiteit ineens niet meer zo mysterieus.

In mijn ogen is de beschikbaarheid van ChatGPT (of eigenlijk niet ChatGPT specifiek maar wat de technologie nu aan een heel groot publiek heeft laten zien) eerder een argument voor afschaffing van copyright dan de versterking/verbreding ervan.

We staan allemaal op de schouders van reuzen en creativiteit is vrijwel geheel een remix. Dat was eerst een filosofisch argument maar nu we een machine hebben die het kan weten we het zeker.
Nu we een machine hebben die middelbare scholieren al overtreft
Ten eerste is dat natuurlijk niet waar. De AI is gemaakt voor een hele specifieke taak, middelbare scholieren worden getraind op heel veel taken en is niet te vergelijken. Machines in het algemeen en computers in het bijzonder zijn volgens jouw beredenering beter (overtreffen) dan de slimste en sterkste mensen van de wereld, want ze kunnen specifieke taken beter en sneller uitvoeren.

Intelligentie en creativiteit zijn hele vage begrippen die eerst volledig beschreven moeten worden en meetbaar moeten zijn. Dat is ons nu nog steeds niet gelukt, zie bijvoorbeeld de ontwikkeling van de EQ naast de al langer bestaande IQ. Beide zijn heel subjectief en geven meer een indicatie dan een vaste waarde.
[...]
Ten eerste is dat natuurlijk niet waar.
Wel.... ChatGTP heeft al een hele hoop examens gedaan en is voor bijna alle geslaagd. https://www.businessinsid...23-1?r=US&IR=T#ap-exams-6
Welke taken krijgt een middelbaar scholier die ChatGTP niet kan doen? Lichamelijke oefeningen? Ik kan niet veel bedenken. De vergelijking met een middelbaar scholier is terecht want ChatGTP slaagt voor de exames die universteiten doen om hun studenten te kiezen (in de VS heel gebruikelijk).

Volgende week komt een grote krant met een series artikelen over ChatGTP waarin ze de bot de eindexamens laten doen voor het middelbare scholen van 2021. Ik voorspel je dat ChatGTP met gemak een voldoende zal halen op elk vlak.

Overigens is er niet veel discussie over de definitie van inteligentie hoor. "as the ability to perceive or infer information, and to retain it as knowledge to be applied towards adaptive behaviors .." is algemeen aanvaard. De definitie van creativiteit is veel eenvoudiger en staat zeker niet ter discussie. 'the ability to make or otherwise bring into existence something new,'. Veel eenvoudiger of moeilijker moet je het niet maken.
Welke taken krijgt een middelbaar scholier die ChatGTP niet kan doen?
Serieus?

Mondelinge toets? Plannen? Samenwerken? Een eigen mening hebben? Empathie?

Ik ga even verder...

De veters strikken, zelf aankleden, naar het juiste lokaal lopen als deze veranderd is. Les volgen van een leraar. Interpreteren van lichamelijke communicatie. Interpreteren van een boek (succes om een nieuw geschreven boek met een moraal te laten interpreteren door chatgpt). Vriendschappen sluiten. Sociale en emotionele ontwikkeling....

Er zijn vragen die een 10 jarige feilloos kan beantwoorden en waar een AI nooit het antwoord op zal weten. De wereld is een stuk groter dan wat een LLM kan.

Je maakt trouwens dezelfde fout waar ik al voor waarschuwde.

Je boormachine is beter dan jij, want die kan probleemloos een schroef met een specifieke kop en kracht sneller en beter doen dan jij met je blote handen....


Oh wacht.... "Gereedschap".... Ergo, AI.... Gereedschap, net zoals je rekenmachine van 40 jaar geleden.
"Er zijn vragen die een 10 jarige feilloos kan beantwoorden en waar een AI nooit het antwoord op zal weten."
Zoals?
Moet je plassen, heb je honger... dat zijn net als het veters strikken voorbeeld onzinnige vragen.
Ik kan jou ook vragen om je gedachten in zes dimensies uit te beelden: die vraag heeft (waarschijnlijk) geen betekenis voor je.
Althans tot voor kort: "is 1586432568985427 een even getal?" Antwoord ChatGPT: "Ja, 1586432568985427 is een even getal, want een even getal eindigt op een cijfer dat deelbaar is door 2." Dit is iets dat een gemiddeld kind van 10 wel gewoon correct kan beantwoorden (tenzij onderwijs echt zo slecht is tegenwoordig).

Mogelijk dat het nu gefixt is, want openAI heeft wat optimilisaties uitgevoerd voor wiskunde. ChatGPT is een taalmodel. Rekenen, redeneren, logisch nadenken, zijn allen dingen waar chatGPT niet veel van bakt. Ja, het kan al eens werkende html, c++ of python-code uitspuwen - dingen die op logisch denken lijken te wijzen - maar het doet simpelweg een interpolatie van bestaande data (talloze voorbeelden voor simpele taken op het internet). Vraag iets complexer, en het geeft gegarandeerd crap. Vrij zeker dat een van mn studenten dit aan de hand had: die stuurde mij dezelfde nonsense als wat chatGPT genereerde toen ik het dezelfde vraag vroeg.

Extrapolatie - iets nieuws bedenken dat geen samensmelting is van wat het al kent - kan het niet. Dit in tegenstelling tot kinderen die weldegelijk tot nieuwe inzichten kunnen komen zonder dat ze het al eerder meegekregen hebben.

[Reactie gewijzigd door jerisson op 24 juli 2024 06:53]

Zelfs met alleen interpolatie kan er heel veel komen, de vraag is of dit helemaal klopt. Omdat ik in bepaalde gevallen heb ervaren dat het model buiten het bereik van de trainingsdata toch voorspellingen/antwoorden kan even die nuttig zijn.

Daarbij kan soms een fout antwoord je wel naar een beter antwoord brengen.

In ieder geval gaat de vraag nu goed in 1 geval met GPT3.5:
Nee, 1586432568985427 is geen even getal, het is een oneven getal. Een even getal is een geheel getal dat gelijk is aan twee keer een ander geheel getal, terwijl een oneven getal niet gelijk is aan twee keer een ander geheel getal.

Als we het getal delen door 2, krijgen we een niet-geheel getal (namelijk 793216284492713,5), wat betekent dat het niet gelijk is aan twee keer een geheel getal, en dus is het een oneven getal.
Daarbij kan soms een fout antwoord je wel naar een beter antwoord brengen.
Natuurlijk, maar dat is dan een gevolg van je eigen kunnen. Het feit dat je erover kan redeneren en nog weet waarmee je bezig bent. Iets wat chatGPT op dat punt niet meer kan.
Ik denk dat je net een andere bot te pakken had :
No, 1586432568985427 is not an even number. An even number is a number

https://i.imgur.com/qVH3oye.png
Nee, ik heb weldegelijk chatGPT voor. Maar een eerdere versie had hier wel last van (mijn test resulteert van toen, dat geef ik ook aan in mijn post). Ondertussen is het wel verbeterd.

Hier is een voorbeeld met de vraag of 42 priem is: https://www.reddit.com/r/...eve_42_is_a_prime_number/ Ondertussen - na bijsturing door de ontwikkelaars - kan chatGPT het wel correct beantwoorden.
Mijn antwoord:

No, 1586432568985427 is not an even number. An even number is defined as a number that is divisible by 2 without leaving a remainder. When you divide 1586432568985427 by 2, you get a remainder of 1, which means that it is an odd number.

Dus...
Ik geef al aan in mijn post dat het iets van een tijdje terug is. Nuja, ik zei "tot voor kort" hetgeen ondertussen 2 maanden terug is (oeps). Ik gaf ook aan dat chatGPT sindsdien geupdate is: zie de release notes van 30/1 https://help.openai.com/e...453-chatgpt-release-notes

Op een bovenstaand bericht van @rvt1 reageer ik ook met een ander voorbeeld mbt tot priemgetallen, maar ook dit voorbeeld werkt niet meer. Ondertussen heeft men chatGPT dus aangepast om ermee overweg te kunnen. Het is twijfelachtig dat men chatGPT wiskunde geleerd heeft, maar eerder om het wiskunde te leren herkennen en de vraag door te geven aan een andere tool (= het equivalent van een rekenmachine, of nu ook Wolfram Alpha https://writings.stephenw...-its-wolfram-superpowers/ )
Maar ik begrijp is het model alleen groter gemaakt. Ze hebben inderdaad getest of het in staat is tools te gebruiken zoals een rekenmachine en ja, dat kan het, maar dat is nog niet hoe het vragen beantwoord. Het is nog aan het hoofdrekenen ;-)

Ik denk toch dat je het een tikje onderschat.

https://youtu.be/Mqg3aTGNxZ0 Is interessant…
De eerste voorbeelden die ik gezien heb over GPT-4 en beter overweg kunnen met wiskunde vind ik persoonlijk niet echt overtuigend om te bewijzen dat GPT inzicht heeft in wat het doet. Bewegingsvergelijkingen en equations zoals in dat filmpje zijn redelijk standaard materiaal en zitten waarschijnlijk al in de trainingsdata.

Ik denk ook wel dat door het aanpassen van het netwerk, anders afhandelen van tokens (bij wiskunde), het vergroten van trainingsdata een LLM ook wel betere resultaten kan produceren. Maar ik geloof nog steeds niet dat het netwerk kan redeneren, of extrapoleren.

De link die je geeft is best interessant - bedankt daarvoor -, maar ik ga toch de paper doornemen als ik er tijd voor vind. Het filmpje voelt nogal gehyped en is niet echt wetenschappelijk 😅

De eerste reacties uit het veld die ik zo tegenkom lijken ook erg skeptisch over deze prepublicatie. Gaande van marketting verpakt als science, fouten in de evaluatie (een GPT-4 sessie een andere GPT-4 sessie zijn antwoorden laten evalueren - een duidelijke red flag), tot het ontbreken van informatie over de datasets en het model. Maar ik ben benieuwd ;-)
Mja, er zit absoluut marketing bij. Als de claims in de paper kloppen is het wel een erg grote stap vooruit, en daar ze al sinds oktober met gpt4 bezig waren neem ik aan dat 5 intern al aan het testen is… het gaat echt bizar hard, dingen waarvan je een jaar terug zou zeggen dat het 10 jaar duurt is er nu opeens.

Het is nog geen GAI maar geef researchers toegang en het kan hard gaan. Dingen als (werk)geheugen, zichzelf aan kunnen passen en continue draaien, tools gebruiken - ik weet niet of dat echt zo lang gaat duren. En wat voor gedrag we dan gaan zien.

Het grootste probleem is denk ik dat we als maatschappij hier helemaal niet klaar voor zijn. Het gaat te snel voor de meeste mensen om er zelfs maar mee gespeeld te hebben. Dus de impact is nog erg moeilijk te bepalen - maar zal heftig zijn. Bij chatgpt 3 zei ik - de meeste mensen overschatten hoe slim het is en onderschatten de impact. Dat is nog steeds, maar het eerste minder en het tweede meer.
En tel daarbij op dat die scholier/mens kan lopen en dat heeft geleerd met vallen en opstaan zonder dat deze daarbij externe hulp (klein beetje wel) heeft gehad. En die externe hulp was niet het finetunen van z'n sensoren en drives. En op het moment dat een machine dit dan ook kan [lopen] dan opeens stellen we dat machines beter zijn dan mensen. Daarbij vergetend dat die machine heel specifiek heeft moeten trainen en letterlijk z'n brein open heeft staan voor mensen om hem beter een specifieke taak uit te voeren. Is hij (het) dan beter of is hij dan beter ingericht om een specifieke taak uit te voeren (waarbij er relatief veel moeite is gestoken in dat aanleren van die specifieke taak)?

Opeens zijn machines beter dan mensen opmdat ze weer een extra taak kunnen overnemen maar nog steeds niet alle taken die een mens kan uitvoeren en ook nog geen enkele taak extra kunnen uitvoeren die nog niet door mensen is aangeleerd.

Maar goed: elke taak die we door een machine kunnen laten doen en die machine kan dat met een hoge zekerheid in 90%(?) van de gevallen ook goed, is weer een taak minder waar de mens zich voor moet inspannen.
Wel.... ChatGTP heeft al een hele hoop examens gedaan en is voor bijna alle geslaagd. https://www.businessinsid...23-1?r=US&IR=T#ap-exams-6

Volgende week komt een grote krant met een series artikelen over ChatGTP waarin ze de bot de eindexamens laten doen voor het middelbare scholen van 2021. Ik voorspel je dat ChatGTP met gemak een voldoende zal halen op elk vlak.
Ja, he he, uiteraard doet een getrainde AI het fantastisch op gebieden waarop het uit duizenden voorbeelden kan leren wat de 'goede' oplossing is. Wat je op school leert is vooral de basis om in die situaties dat je NIET op de oplossingen van duizenden eerdere voorbeelden kan terugvallen toch een oplossing te vinden. Compleet met alle mitsen, maren en twijfels waar de AI geen idee van heeft dat ze überhaupt bestaan. AI zal bijvoorbeeld nooit de stikstofcrisis of de klimaat crisis helpen oplossen omdat er helaas geen honderden Nederlanden of werelden zijn waar allerlei verschillende maatregelen genomen zijn en het model eens lekker getraind kan worden.
Overigens is er niet veel discussie over de definitie van inteligentie hoor. "as the ability to perceive or infer information, and to retain it as knowledge to be applied towards adaptive behaviors .." is algemeen aanvaard. De definitie van creativiteit is veel eenvoudiger en staat zeker niet ter discussie. 'the ability to make or otherwise bring into existence something new,'. Veel eenvoudiger of moeilijker moet je het niet maken.
Die definities van intelligent en creatief zijn zo wazig dat je er totaal niets mee kan. Ik kan bijvoorbeeld nog geen rechte lijn op papier trekken en bespeel geen enkel instrument. Maar als ik wat verf op een canvas smeer en vijf minuten op een elektrische piano roffel heb ik twee nieuwe dingen gecreëerd en ben ik eigenlijk even creatief bezig als Picasso en Mozart?
Nu je dat noemt. Ik denk eerder dat de overheid compleet faalde in de aanpak van corona doordat er 0% onderzoek werd gedaan naar de effectiviteit van de maatregelen.
Een ia zou juist door middel van controlle groepen snel en makkelijk kunnen uitzoeken van wat is effectief en wat niet.
Maar kan hij ook zijn veters strikken en echt omgaan met emotie en relaties? Uiteindelijk leer je als mens heel veel meer. Op het vlak kennis vergaren zal een AI natuurlijk altijd winnen. Maargoed, dat is niet nieuw. Mijn rekenmachine kan ook beter rekenen dan ik. Ik vind het niet gek dat een AI ieder tentamen met een 10 zou kunnen halen. Sterker nog, ik zou bijna zeggen dat je een matige AI hebt als het niet lukt. Op dat vlak kunnen zal de AI vast en zeker beter zijn. Ondertussen loop ik even heen en weer, iets wat ik zelf heb geleerd. Nu de AI weer :+
We weten onderhand wel dat ChatGPT en bondgenoten fysieke activiteiten/handelingen nog niet kunnen uitvoeren, geef het een paar jaar en deze AI tools worden gekoppeld aan systemen zoals die van Boston Robotics. Waar sta je dan met je 'ik ga nu ff heen en weer lopen'?alles is een kwestie van tijd.
Maar dan blijft het argument van @Zenomyscus overeind; hij heeft dat zichzelf aangeleerd (dankzij evolutie misschien) en niet dankzij de inspanning van een extern systeem (zoals Boston Robotics).

Maar goed - het blijft grappig dat we een AI opeens slim gaan noemen op het moment dat deze taal kan gebruiken en dat enkel en alleen kan omdat deze een stochastisch model van heel veel woorden en hoe deze bij elkaar worden gebruikt. Het blijft gebrabbel van een baby wat toevallig( :Y) ) grammaticaal klopt maar zonder te begrijpen wat het zegt. Alle voorbeelden geven aan dat het nadoen van een menselijke handeling nog lang niet betekent dat de imitator dan ook echt slim is.
minimaal 2 keer op dezelfde plek
Volgende week komt een grote krant met een series artikelen over ChatGTP waarin ze de bot de eindexamens laten doen voor het middelbare scholen van 2021. Ik voorspel je dat ChatGTP met gemak een voldoende zal halen op elk vlak.
Met pen en papier graag, op locatie, en zonder internet verbinding, net zoals de scholieren dat ook moeten doen. Rekenkracht van de AI moet passen in het lichaam van een scholier :+
[...]


Met pen en papier graag, op locatie, en zonder internet verbinding, net zoals de scholieren dat ook moeten doen. Rekenkracht van de AI moet passen in het lichaam van een scholier :+
Dit ja. Ik slaag ook voor alles als ik mn laptop met internet erbij mag en dan vrienden kan vragen.
De examens van 2021, werden die wel op locatie afgenomen? 😃
Het model kan op een A100 draaien, geheel lokaal en een paar van die in een kast is kleiner als een scholier.
Hang er een ouderwetse pen-plotter aan en klaar ;).
*op een aantal A100’s
ChatGPT zelf heeft geen internet nodig hoor, als je de server er naast zou zetten kan hij gewoon draaien.
De nieuwe ChatGPT kan wel degelijk het Internet doorlopen en nieuwe dingen leren adhv websites die je kan aanbieden in de chat sessie.

Een ChatGPT zonder Internet (het model alleen) gaat ook nergens gaan, je kan het model downloaden (alhoewel niet de laatste versies) maar dan moet je het nog steeds trainen.
En faalangst, besef van tijdsdruk, slechte nachtrust, hormonen en alles waar we als mens mee te maken hebben.
Wel.... ChatGTP heeft al een hele hoop examens gedaan en is voor bijna alle geslaagd.
En laat nu net feitjes opdreunen en het verpakken van feitjes in een mooi lopend verhaal, precies zijn waar ChatGPT in uitblinkt.

Maar, waar het iets minder in uitblinkt omdat het trainingsmodel en de techniek gewoon faalt...
Nou ja; kijk maar: https://github.com/giuven95/chatgpt-failures
Logisch redeneren: daar faalt het behoorlijk hard in (gpt3 meer dan gpt4). Begrijpend lezen vragen beantwoorden lukt redelijk. Maar voer een paar logische denkpuzzel en GPT krijgt het moeilijk en moet steeds gestuurd worden. GPT is een taalmodel en voorspelt het volgende woord op basis van de woorden die voorbij zijn gekomen. Het heeft alleen zoveel 'gelezen' dat de woorden die volgen inderdaad de meest logische zijn. Gooi daar een boel fuzz-factoren overheen voor wat randomness en het is alsof je een goed gesprek in de kroeg voert.

Voordat GPT echt kan redeneren moet het groeien van een taalmodel naar een taalmodel naast een model wat een wereld van feiten representeert. Probeer GPT te vertellen dat we een universum maken waarin de de snelheid van het licht verdubbelen en de consequenties die dat heeft. Je zal zien dat GPT in algemeenheden gaat vervallen (logisch: er zijn geen boeken waarop je GPT kunt trainen waarin dit voorkomt, je kunt dat alleen doen als je begrijpt was de impact van lichtsnelheid is op diverse formules en modellen waarom we de rest van de theorie bouwen).

Jammer dat je reactie die nuance niet kent. Ik zie het nut van GPT zeker wel, maar de beperkingen zijn er zeker wel. Ik zou GPT in ieder geval niet mijn examens laten maken.
Overigens is er niet veel discussie over de definitie van inteligentie hoor. "as the ability to perceive or infer information, and to retain it as knowledge to be applied towards adaptive behaviors .." is algemeen aanvaard.
Juist, deze definitie is verder niet vaag, multi interpretabel of wat nog belangrijker is, meetbaar tot 2 puntjes achter de komma ;)
de vraag is in welke vorm die examens zijn gemaakt en of er ook vrije opdrachten in zitten waar AI-gegenereerde content sneller zou opvallen vb determineer de eigenschappen van de mogelijke nakomelingen van je biologieleerkracht met een bepaald type partner.
Dit is een stuk minder indrukwekkend dat het lijkt.

ChatGPT is getraint met data van het internet - en het internet bevat ook de antwoorden van die examens: van de schriftelijke eindexamens zoals die in Nederland worden gegeven, staan de officiële antwoorden gewoon online. Daarnaast zijn er een hele hoop discussiegroepen waarin mensen de examens bespreken en haarfijn uitleggen. Hierdoor is het correcter om te zeggen dat ChatGPT in staat is om een examenvraag te herkennen en het juiste antwoord in zijn dataset kan vinden.

In een recent artikel (dat ik nu helaas zo snel niet meer kan vinden) werd ChatGPT getest op een set programmeer-problemen: alle problemen die waren uitgebracht vóór 2021 kon ChatGPT feilloos oplossen, maar de problemen ná 2022 hadden allemaal foutieve antwoorden. En laat de dataset van ChatGPT nou juist in 2021 zijn gemaakt...
Zelfde ervaring hier: logica puzzels van na 2021: hopeloos falen. En het ergste is (getest met GPT4) : vraag je om een concrete invulling van de puzzel komt'ie doodleuk aan met oplossingen die haaks staan op de gegeven informatie. Je wijst GPT erop. "Ja en?" is dan de reactie totdat je wijst op een gegeven feit wat niet strookt met de oplossing en dan pas reageert GPT met oops, je hebt gelijk en gaat herschrijven,

Dit is voor puzzels waar logisch redeneren het belangrijkste element is en tekst een tweede en, belangrijker, ik de correcte antwoorden heb. Als ik GPT een onbekend stuk laat verwerken en ik vraag om een conclusie dan is er geen mogelijkheid om een betrouwbaarheids interval toe te laten kennen door GPT (als je daarom vraagt is het altijd: 10 op een schaal van 10).

GPT is als een junior in je team die de waarheid in pacht denkt the hebben: alles moet gecontrolleerd en gedubbelchecked worden. Supervermoeiend en niet echt iets waar ik op zit te wachten.
GPT is als een junior in je team die de waarheid in pacht denkt the hebben: alles moet gecontrolleerd en gedubbelchecked worden. Supervermoeiend en niet echt iets waar ik op zit te wachten.
idd. Praat alles en iedereen na en heeft geen greintje verantwoordelijkheidsgevoel voor de inhoud van z'n antwoorden/oplossingen. Accepteert elke correctie en begint weer opnieuw. In welke wereld zou een dergelijk teamlid in het team blijven?
Volgende week komt een grote krant met een series artikelen over ChatGTP waarin ze de bot de eindexamens laten doen voor het middelbare scholen van 2021. Ik voorspel je dat ChatGTP met gemak een voldoende zal halen op elk vlak
Zou dat laatste komen omdat de examenvragen en uitkomsten al bekend zijn en gewoon op het Inet te vinden?!
Examens maken == kennis reproduceren, iets waar llms erg goed in zijn en mensen van nature wat minder goed in zijn. Ik heb nog nergens AI gezien dat zelf tot echt nieuwe inzichten kwam, deze inzichten is gaan testen en zowel bevestigende als ontkrachtende experimenten kan opstellen en daar conclusies en evt nieuwe inzichten uit kan putten.

Hele volksstammen houden zich daar dagelijks mee bezig op de universiteiten
Hangt heel erg van het examen af: lagere niveaus=kennis reproduceren. Hogere niveaus=kennis combineren tot nieuwere kennis. GPT opereert niet op dat laatste niveau:
1) De antwoorden zijn minder vaak correct
2) GPT kan niet aangeven hoe goed antwoorden zijn
3) GPT kan niet zelf controleren of zijn antwoorden goed zijn.

Ik vind de waarde die men toekent aan LLMs te hoog in vergelijking tot wat het kan. Het kan heel veel en ik vind het mooi om te zien dat AI na 40 jaar eindelijk ongeveer doet wat het belooft. Maar alleen een LLM model is te weinig om ook echt AI te noemen.
"Welke taken krijgt een middelbaar scholier die ChatGTP niet kan doen"
Chatgpt kan niet subnetten en maakt enorme fouten met rekensommen met genoeg denkstappen
bijvoorbeeld: https://github.com/Boomdo...halen/blob/main/subnetten
of deze https://github.com/Boomdo...en/blob/main/Bedenkeensom
Zou heel mooi zijn als AI de kantoor baantjes zou kunnen overnemen.

Bijv dat straks wanneer je een huis wilt bouwen dat je een AI alle vergunning laat aanvragen.
Een mens kan verbanden maken die een computer niet kan. En dat komt omdat wij niet perfect zijn :+

Een probleem los je niet op door bestaande oplossingen / theoriën te herhalen, je zult iets nieuws moeten verzinnen. Dat is de creativiteit dat een mens kan hebben en wat ons onderscheidt van computers.

Kunst is een creativiteit dat een computer erg makkelijk kan na doen en is daarom geen echte creativiteit. De mens die waarde hecht aan kunst en de meest achterlijk dingen kan zien in een vierkant blokje, dat is dan wel weer creatief 8)7
Een mens kan verbanden maken die een computer niet kan. En dat komt omdat wij niet perfect zijn :+

Een probleem los je niet op door bestaande oplossingen / theoriën te herhalen, je zult iets nieuws moeten verzinnen. Dat is de creativiteit dat een mens kan hebben en wat ons onderscheidt van computers.
Een mens kan ook alleen maar (nuttige) verbanden leggen doordat hij kennis heeft genomen van informatiebronnen, bestaande oplossingen en theorieën. Daar komt dan per ongeluk soms een nieuw verband uit.

Een AI kan gewoon veel meer kennis combineren dat een mens ooit zal kunnen. AI heeft daarbij geen geluk nodig, het kan gewoon alle kennis categoriseren en combineren totdat daar zinnige nieuwe inzichten uitkomen. Daarbij kan een AI dit ook nog eens toetsen omdat een AI uiteindelijk ook veel beter in wiskunde en statistiek zal zijn.
Een AI wel, maar dit is een LLM: die geeft de meeste logische (= meest geziene) woordvolgorde terug op de tekst die het gepresenteerd wordt. En omdat LLM geen reasoning-engine oid aan boord heeft zijn bananen ook gewoon maar vogels. En beter in wiskunde en statistiek is Wolfram Alpha al (en dat is geen AI).
De AI is gemaakt voor een hele specifieke taak
Nee een AI heeft geen limitaties mbt het aantal taken.
Machine learning is gericht op specifieke taken.
Als een AI, een echte AI is, dan kan het net zoveel taken zelf maken dat het nodig vindt. Dat is letterlijk waarom het AI genoemd wordt.
Als een AI service maar 1 taak kan dan is het hartikke nep.
Dat is marketing BS van bedrijven die enkel een machine learning script hebben gebruikt en verder geen flauw idee hebben wat een AI is.
Nee een AI heeft geen limitaties mbt het aantal taken.
Dan hebben we heel andere definities van een AI vrees ik ;) . Een AI zoals jij beschrijft bestaat (nog lang) niet.
Nee ik heb een definitie van een AI
Jij hebt een definitie van een algoritme wat we al meer als 10 jaar gebruiken.
Het verkoopt beter als je de label AI op een product zet terwijl je gewoon een ouderwets machine learning algoritme aan het gebruiken bent.

Helaas is de AI, zoals ik hem beschrijf, al aanwezig. Het heet MuZero.
Alle machine learning algoritmes zijn een vorm van AI, zo ook Muzero. AI is de verzamelnaam voor allerlei technieken, bijvoorbeeld de AI die gebruikt wordt als je een zoek opdracht van Google doet, of bijvoorbeeld de AI bij een zelfrijdende auto. De AI in je mobiele telefoon als je een foto maakt en deze verbeterd wordt enz.

Jij zegt
Nee een AI heeft geen limitaties mbt het aantal taken.
Er bestaat geen AI die zonder limitaties werkt. Alle bekende AIs maken gebruik van onder andere machine learning om bepaalde specifieke taken uit te voeren.

Muzero is dan ook gelimiteerd tot hetgene waar het voor geprogrammeerd is, maar in plaats van spelregels vast te leggen werkt het algoritme andersom, het stelt de spelregels samen aan de hand van voorbeelden (heel veel voorbeelden). Daarom kan je Muzero gebruiken voor het leren van een nieuw spel, maar wel met heel veel voorbeelden zodat het genoeg "regels" kan leren en het spel kan spelen.

AI toepassingen zoals we die nu kennen zijn allemaal gelimiteerd tot hetgene waar ze voor geprogrammeerd zijn. Pas als een AI zijn eigen code overstijgt moet je je zorgen gaan maken, maar dat is nog lang niet het geval. Je komt dan ook heel dicht in de buurt van zelfbewustzijn van een AI.
Er bestaat geen AI die zonder limitaties werkt.
Daarom gaf ik ook aan "mbt het aantal taken"

Zelfs Chat-GPT is enkel maar 1 uitvoerbaar taak van de open-AI engine. Moet je eens voor de lol op de officiele site kijken. Er zijn allemaal verschillende versies van taken waarvan er 1 een chatbot is.
Denk je dat het allemaal losse AI's zijn in de achtergrond? Of is het een curated selectie van taken dat het AI kan doen en geschikt zijn voor openbaar gebruik,

We zijn heel wat verder met AI dan jij je voorstelt.
Denk je dat het allemaal losse AI's zijn in de achtergrond?
Ja
We zijn heel wat verder met AI dan jij je voorstelt.
En waar baseer je dat op? Ik heb al jaren lang met verschillende AIs te maken, ik ben programmeur en weet het en een ander van de manier waarop een AI werkt. Er zijn talloze toepassingen waarbij AI wordt gebruikt, maar elke AI heeft een beperkte taak en is daar ook specifiek voor getraind. Een AI voor een zelfrijdende auto is specifiek daarvoor getraind en geprogrammeerd en zal niet uit zichzelf ineens een chatgpt mogelijkheid krijgen. Daar is die specifieke AI niet op getraind of voor geprogrammeerd. Ook zal het niet ineens een spelletje go kunnen spelen, of kanker cellen herkennen in een lichaamscan.

Aan alle antwoorden die je geeft lijkt het erop dat je of bang/angstig bent voor AI en de toepassingen daarvan, of je maakt je in ieder geval veel zorgen daarover. Wat is voor jou het doemscenario waar je je zorgen om maakt?
Dus je denkt dat een computer in je auto sterk genoeg is om een AI te huisvesten? Een AI vereist een datacenter aan bandbreedte en capaciteit en dat past in je auto? En je noemt jezelf een programmeur?
Er zijn talloze toepassingen waarbij AI wordt gebruikt
Er is een heel groot verschil tussen een AI op een aparaat hebben dat dingen voor je doet of een algoritme wat door een AI in elkaar is gezet om een taak op jouw aparaat uit te voeren.

Zie het zo. De AI is een printer. Je taken zijn de vellen papier die worden geprint.
Elke papiertje heeft 1 functie en kan daar niet van afwijken. <-- Dit noem jij AI
De printer kan elke mogelijk combinatie aan pixels op dat papier zelf maken en kan oneindig taken maken. <-- Dit noem ik AI
Dus je denkt dat een computer in je auto sterk genoeg is om een AI te huisvesten?
Volgens mijn definitie van wat een AI is wel :)

"Artificial intelligence is the simulation of human intelligence processes by machines, especially computer systems..."

En dat is precies wat een zelfrijdende auto doet, het simuleert het gedrag van een mens om auto te kunnen rijden, ipv ogen met cameras en radar bijvoorbeeld.

Deze AI is uiteraard getraind met enorm veel materiaal om zaken te herkennen op de weg. Een zelfrijdende auto heeft een AI die herkent dat er een obstakel ligt waar je om heen moet rijden (een andere auto) of overheen, wat bladeren op de weg.
De printer kan elke mogelijk combinatie aan pixels op dat papier zelf maken en kan oneindig taken maken. <-- Dit noem ik AI
Dat bestaat niet. Er is nergens een AI die zelf zijn eigen toepassing bedenkt (op papier zelf maken) en ongelimiteerd is in de toepassingen die het kan maken.

En nogmaals, we verschillen denk ik in de definitie van een AI. Daar is niks mis mee, daar hoef je me niet persoonlijk voor aan te vallen. Ik heb dat ook niet gedaan, en als dat wel zo is overgekomen, mijn welgemeende excuses.
Er is nergens een AI die zelf zijn eigen toepassing bedenkt
Als het zijn eigen toepassing niet kan bedenken dan is het geen AI.
We schrijven als mens al decenia's lang scripts om dingen te automatiseren. Daarna gebruiken we die automatisering om er nog een laag automatisering erbovenop te plakken.
Geen AI die er aan te pas komt maar voor de leek ziet het eruit als toekomst muziek.
Het is geen AI als jij de kaders bepaalt. Het is dan enkel een complexe script geschreven door een mens.
Het verkoopt beter als je de label AI op een product zet terwijl je gewoon een ouderwets machine learning algoritme aan het gebruiken bent.
Machine learning is een vorm van AI, dus niks aan gelogen. AI blijft een paraplu voor al deze technieken.
Jouw interpretatie (middelbare scholieren) geeft alleen maar je eigen kortzichtigheid en, misschien nog wel erger, een compleet reductionistische kijk op de mens aan.

Overtreffen in wat? Dingetjes herinneren? Dat is helemaal niet interessant, dat kan een database ook. Dat is het handige aan computers: opslag.
@Sandor_Clegane verwoordt het misschien niet helemaal handig, maar hij heeft wél een punt !
We (Wij mensen) staan allemaal op de schouders van reuzen. Dat doet de AI nu ook. wat is het verschil ?

We doen allemaal ons voordeel met content die we elders ophalen.

Ik ben het echter niet met hem eens dat we daarom het copyright maar af moeten schaffen. Mensen werken voor al die goede content waar wij mensen, en nu ook een AI, mee gevoed worden. Die mensen moeten we koesteren. Want wat als die bron opdroogt ? Dan komt ook een AI niet verder omdat die hallucinatie op hallucinatie gaat stapelen en uiteindelijk onbruikbaar wordt.
Als je een filosofisch argument over creativiteit wilt maken, ben je het verkeerde argument aan het maken in mijn optiek.

Als je een filosofisch argument wilt maken over deze technologie dan is het meer een argument over hoe je de mens ziet. Redeneer je vanuit een technocratische visie over de mens, waarin deze niets meer is dan een schakel in een procedure om iets te creëren (een "waar", wat dan ook) dan is het inderdaad precies hetzelfde. Dit riekt naar Taylorism en dit is in mijn optiek een van de grondslagen waarom we tegenwoordig leven in een samenleving waarin de mogelijkheid tot het hebben van een zinvolle invulling van je leven steeds meer is weggevallen.

https://en.wikipedia.org/wiki/Scientific_management

Je laatste punt is wel een mooie, dat is namelijk een uitwas van de "ideologie du jour". Publieke ruimtes zijn niet "rendabel" en alles wat niet (gemakkelijk) te kwantificeren is (in geldelijke termen) wordt op bezuinigd. De kansen dat mensen de ruimte krijgen om een bepaalde creatieve "drang" te uitten zonder dat daar een bepaalde "return on investment" achter zit, worden steeds kleiner en dat maakt dat we er allemaal op achteruit gaan.

In de macro zijn deze tools natuurlijk de verdere proletarisatie van werkenden. Waren het eerst "laaggeschoolde/simpele" baantjes die op te tocht stonden zijn/worden het nu de goedbetaalde kantoorbanen omdat de ruimte voor nieuwe markten (die groot genoeg zijn om interessant te zijn) aan het opdrogen zijn. Het is een ijzeren wet dat er gegroeid moet worden en de mensen die eerst redelijk zeker waren in hun bestaan, vanwege hun positie in relatie tot kapitaal, zullen nu ook ondervinden wat een hoop mensen in de "gig economy" en dergelijke al veel langer weten: niets is zeker.

Wat deze systemische onzekerheden met een samenleving doen qua geestelijke gesteldheid en dergelijk baart me wel zorgen.
Sorry... ik kan je niet volgen.
Ik maak geen filosofisch argument, maar een heel praktisch argument. Ik heb het nergens over zinvol leven of iets dergelijks.
En dan dat gebrabbel met met een overdaad aan moeilijke woorden. Dat gaat mij boven mijn pet. :)
En ik denk jou ook... ik heb het gevoel dat je tekst zo copy-paste uit een AI komt. O-) Of vergis ik me ?
Misschien had de OP toch gelijk over het overtreffen. :+

Ik weet het goed gemaakt, als jij aangeeft wat je niet snapt, zal ik proberen het beter uit te leggen.
. De kansen dat mensen de ruimte krijgen om een bepaalde creatieve "drang" te uitten zonder dat daar een bepaalde "return on investment" achter zit, worden steeds kleiner en dat maakt dat we er allemaal op achteruit gaan.
ERC grants, blue sky projecten, de meeste kunst, divers huisvlijt, ga zo maar door. Genoeg activiteit waar niet direct een roi aan vast zit hoor.
Dat een dienst als ChatGPT (en vele anderen zometeen) geld vragen om toegang. (en er dus op verdienen)
Dit is natuurlijk net zo goed te zeggen over een consultant die zijn kennis met je deelt of een menselijke assistent die voor jou het belangrijkste nieuws uitzoekt en dit met je deelt.

Het lastige is dat dit nu op een bizar veel grotere schaal kan en veel goedkoper kan dan voorheen, waardoor het bronproduct concurrentie krijgt.
Mijn werkgever huurt mij ook in, nadat ik content op bijvoorbeeld Tweakers heb gelezen (en jouw reacties!).
Er bestaat ook nog zoiets als schaal. Het is altijd wel apart dat mensen niet het verschil kunnen zien tussen een bedrijf dat een verdienmodel heeft gevonden door op grote schaal "copyright" aan hun laars te lappen en een enkel persoon die eens leentjebuur speelt ergens.

Zie: https://waxy.org/2022/09/...nies-from-accountability/
Het auteursrecht wordt hier niet aan zijn laars gelapt, want het kent het hele concept van een statische analyse loslaten op een tekst (die gebruikt wordt om het model te vullen) niet. Nergens is bij het maken van dat model het reproduceren van integrale stukken tekst aan de orde.

Je zou er voor kunnen pleiten de wet aan te passen (waar ik sterk op tegen ben, want daarvoor moet je een goede maatschappelijke reden hebben), maar claimen dat chatGPT nu de wet aan zijn laars lapt is onzinnig.
Het auteursrecht wordt hier niet aan zijn laars gelapt, want het kent het hele concept van een statische analyse loslaten op een tekst (die gebruikt wordt om het model te vullen) niet. Nergens is bij het maken van dat model het reproduceren van integrale stukken tekst aan de orde.
Het auteursrecht kent het principe van een afgeleid werk.
En dat is hier wellicht van toepassing.
In Nederland hebben we ook een verwerking clausule:

Artikel 18a
Als inbreuk op het auteursrecht op een werk van letterkunde, wetenschap of kunst wordt niet beschouwd de incidentele verwerking ervan als onderdeel van ondergeschikte betekenis in een ander werk.

Die lijkt me belangrijker als het afgeleide vraagstuk.
(weet niet hoe dit in de US zit oveigens.)
Alleen is deze verwerking niet incidenteel, maar doelbewust; continu; en bij herhaling. Een taalmodel zoals ChatGPT wordt namelijk getraind door eerst een (heel grote en brede) set data te verzamelen en daar het model continu op te trainen. Het trainen van het model is ook niet van ondergeschikte betekenis, want zonder het te trainen heb je niet eens een bruikbaar model.

Wat resteert is de vraag in hoeverre je een individueel verwerkt werk binnen de grote set invoer kunt beschouwen als een incidentele verwerking en ene verwerking die als onderdeel van het geheel van het trainen van de data set, van ondergeschikte betekenis is.

Daar zou de rechtsspraak nog een lastige aan hebben, want die clausule is juist bedoeld om werken te beschermen tegen het aangemerkt worden als een afgeleid werk, wanneer er slechts van een zeer klein niet-noemenswaardige hoeveelheid afgeleide inhoud sprake is.
Dat is bij het trainen van een taalmodel niet het geval. Alle inhoud is daar per definitie niet origineel. Het enige verschil zit hem er in dat je niet alles bij één partij jat, maar allemaal fracties van procenten bij miljoenen verschillende partijen.
Grote vraag: kun je dus in zo'n geval op die bescherming aanspraak maken?
En als je dat kunt ... is dat dan wenselijk?

[Reactie gewijzigd door R4gnax op 24 juli 2024 06:53]

Training is niet het doel van de modellen. Inference is het doel. Training op veel data is maar een onderdeel van wat deze modellen zijn.
Daarnaast, een individueel werk wordt een of enkele keren ingevoerd en dan zie je die nooit meer terug (hopelijk).
Training informatie is ook bij mensen vrijwel per definitie niet origineel. Dus van dat punt snap ik de waarde niet.
En ja. Ik vind dat wenselijk. Maar wie ben ik... ;)
Vergeet niet dat de openbare(!) teksten gelezen worden om te trainen, niet te repliceren of door te sluizen.

Zie het als het gebruik van dezelfde openbare bronnen door scholen. Die traint de leerlingen er en masse mee. Zo werkt de AI ook.
Een schoolboekenuitgever verdient dan wel weer per kind. Dus dat is wel een beetje anders.
Ik doelde oa op universiteiten die krantenknipsels laten zien.

En dan nog wordt de info gebruikt om te trainen niet om weer te geven aan derden.
Als dat kind later 2 miljoen boeken gaat schrijven en 4000 schilderijen gaat maken dan kan je ook niet met datzelfde argument aankomen bij de rechter.

Het probleem is daar dat de shoolboekenuitgever een verkeerd businessmodel heeft gebruikt en niet met de tijd is meegegaan. Bedrijfsrisiko. Klompenmakers kregen ook geen gelijk.
Copyright speelt hier niet.
Als voorbeeld een extreem fanatieke medisch student. Leest extreem veel vakliteratuur en ziet al snel zwakheden. Kort na zijn afstuderen komt hij met een behandeling wat voor 98% een mix is van eerdere studies en 2% eigen inbreng.

Is dat jatten van research?
Nee? Dan is AI dat ook niet.
Ja? Dan hebben we een extreem probleem want vrijwel alles is een samenraapsel van eerdere research.
Ik hoop dat je laatste opmerking een (halve) grap is. AI is helemaal geen brein. Het is tegelijkertijd beperkter (het kan niet alles wat ons brein wel kan) en krachtiger (de hoeveelheid info die verwerkt kan worden is enorm).

Verder mag jij als je een boek, artikel, film, ... leest/kijkt, de opgedane kennis wel toepassen in je eigen leven, maar je mag dat niet op grote schaal gaan namaken/verspreiden.

Het opent (alweer) het debat over copyright & AI. Hoe ver rijkt plagiaat? Wat is het verschil tussen een kunstenaar die zich laat beïnvloeden door andere kunstenaars en een AI die dat doet? Wat is creativiteit? Zijn we nog creatief als het werk door een computer gegeneerd wordt? ...
Hoe speciaal zijn wij werkelijk? Is het wel legitiem om eigendom te claimen op ons eigen werk als dat niet wezenlijk anders tot stand komt dan wat deze machine laat zien?
Is het plagiaat als je het werk niet claimed?

Google en Binq hebben letterlijk elke openbare website geïndexeerd. Ze gebruiken deze data compleet gratis en zonder enige toestemming van de website eigenaren.

Hoe is dat anders dan data training voor een chatbot, die ook altijd linkt naar relevante websites.
"Hoe is een artificiële intelligentie anders dan mijn brein?"

AI is niet intelligent. Jouw brein wel.
AI is niet intelligent. Jouw brein wel.
Welke definite van intelligentie gebruik je dan? Want de meeste gangbare 'as the ability to perceive or infer information, and to retain it as knowledge to be applied towards adaptive behaviors ...' lijkt een stap die AI al gemaakt heeft. Volgens veel onderzoekers overigens al tien jaar terug.
Zelfs als je gewoon de woordenboek-definitie van Cambridge of Merriam-Webster pakt:
the ability to understand and learn well, and to form judgments and opinions based on reason
1a (1) : the ability to learn or understand or to deal with new or trying situations : reason
also : the skilled use of reason
(2)
: the ability to apply knowledge to manipulate one's environment or to think abstractly as measured by objective criteria (such as tests)
is duidelijk dat bij de gangbare vorm van de definitie er impliciet sprake moet zijn van de mogelijkheid tot abstract denken; redenatie; en het uitdenken van oplossingen voor nieuwe, niet eerder tegengekomen situaties adhv kennis uit eerdere soortgelijke situaties.

Dit is specifiek wat huidige deep learning modellen niet kunnen.

[Reactie gewijzigd door R4gnax op 24 juli 2024 06:53]

Tsja. Die definitie lijkt me nog wat te algemeen.
Er is een algemene consensus dat een boom of een schimmel niet intelligent is. Toch passen zij hun gedrag aan, aan hun omgeving. En ik zie bij mensen het tegengestelde gedrag (al is dat een andere discussie ;-) )

Ik heb het door jou beschreven gedrag echter nog niet gezien in AI-oplossingen. Ik zie veelal een hele zwik scriptjes die wat voorgeprogrammeerde dingetjes kunnen doen op basis van sleutelwoorden.
Lanier plaats het ook mooi in context in dit recente artikel:

https://www.theguardian.c...-that-it-drives-us-insane
Geef een mens nieuwe gereedschappen (LLMs in dit geval) en hij/zij zal met nieuwe vragen om op te lossen komen.

“AI” (bewust tussen quotes) kan dat niet.
Precies dat, jij betaald ervoor. In fysieke vorm en online. En altijd met reclame.

AI die kijkt naar de tekst levert hun niks op. En gezien de meeste media bedrijven geldwolven zijn... Ik snap dat bedrijven geld willen verdienen, maar ik zie hier specifiek geen gevaar voor hun inkomen.
Volume: jij kan je kennis maar beperkt verspreiden, AI kan opschalen. Het is een hele andere orde grootte van hergebruik.
Als jij bijvoorbeeld samenvattingen van die krantenartikelen gaat verkopen dan krijg je daar zeker wel een factuur voor lijkt me.
Dit is geen vergelijking. Jij leest de krant en betaalt daarvoor. Als jij een business opzet (zoals AI-bedeijven) waarbij die artikelen verder verspreid worden en ervoor betaald krijgt, is dat toch echt een dingetje.
Maar dat is helemaal niet wat er gebeurd, dus wat is daar relevant aan?
GebeurtT. Wel degelijk. Er staat immers dat men gecompenseerd wenst te worden voor het werk.
Jij bent een persoon, ai is een product. Als persoon heb je verantwoordelijkheid zelf te nemen, dat product doet dat niet en hoeft dat ook niet te doen. En hoewel je in de toekomst mogelijk kan argumenteren dat deze middelen genoeg vergelijkbaar zijn met personen, dat is nu niet het geval en ook juridisch niet zo besloten.

Je hebt als persoon rechten op creatief gebruik en om binnen redelijkheid van persoonlijke mogelijkheid gebruik te maken van andermans werk. Ga je opzettelijk commerciele middelen inzetten voor verwerking, om vervolgens aan dat middel te gaan verdienen, dan ben je dus niet persoonlijk bezig waar die mogelijkheden voor gelden.

[Reactie gewijzigd door kodak op 24 juli 2024 06:53]

Dat AI geen persoon is doet er niet toe, het leidt er alleen maar toe dat je moet praten alsof je het hebt over de eigenaar van de AI.
Je hebt als persoon rechten op creatief gebruik en om binnen redelijkheid van persoonlijke mogelijkheid gebruik te maken van andermans werk. Ga je opzettelijk commerciele middelen inzetten voor verwerking, om vervolgens aan dat middel te gaan verdienen, dan ben je dus niet persoonlijk bezig waar die mogelijkheden voor gelden.
Uit welke wet(ten) blijkt dit volgens jou?
Geld.

Het draait om geld en niets anders.
Als jij de krant leest om vervolgens steeds je eigen nieuws site up te daten dan mag dit volgens mij ook niet zomaar. Nieuwssites betalen ook aan bijv het ANP om het nieuws te mogen overnemen. Een tekst een beetje herschrijven in eigen woorden pleit je nog niet vrij van copyright.

Een AI publiceert de kennis die het opdoet, dus kan je wettelijk misschien spreken van een soort herpublicatie.

Daarnaast heb je ook nog het recht op database. Dat jij iets publiceert maakt nog niet dat een ander er zomaar mee aan de haal mag gaan anders dan het doel waarvoor jij het publiceert. Er zijn uitzonderingen hierop als het bijvoorbeeld om educatie of wetenschap gaat.

Of dit allemaal stand houd in een geval als dit weet ik niet, maar ik zie wel wettelijke gronden voor deze claim. Dit is natuurlijk allemaal heel nieuw en ben wel benieuwd hoe rechters hierop zullen gaan beslissen. Maar gewoon maar zeggen van ja dit is niet anders dan dat ik de artikelen lees en slimmer van wordt, lijkt mij erg kort door de bocht. Maar wie weet vind een rechter hetzelfde.

[Reactie gewijzigd door ro8in op 24 juli 2024 06:53]

Als jij de krant leest om vervolgens steeds je eigen nieuws site up te daten dan mag dit volgens mij ook niet zomaar. Nieuwssites betalen ook aan bijv het ANP om het nieuws te mogen overnemen. Een tekst een beetje herschrijven in eigen woorden pleit je nog niet vrij van copyright.
Een "beetje herschrijven" kan onvoldoende zijn, maar nieuwsfeiten mag je volgens mij juist wel gewoon overnemen. Op de tekst zit copyright, niet op de feiten. Je ziet het overigens ook vaak gebeuren, het is helemaal niet zeldzaam dat bijv. een bepaalde krant iets onthuld en dat de overige nieuwsboeren daar dan over schrijven.
Dat geld alleen voor nieuws van algemeen belang.
Maar zie jij bijv een onderzoeksjournalistiek artikel in een andere krant dan verwijzen ze altijd naar de bron. Meestal in de trend van schreef de telegraaf of vanochtend opende de volkskrant met. Dat is een beetje een ongeschreven regel in de Nederlandse nieuws media dat ze elkaar er ook niet op zullen pakken.
Maar ga jij elke dag nu.nl zitten overtikken in je eigen woorden op je website nuu.nl dan heb jij toch echt wel een probleem.
Als je als bedrijf massaal een groep mensen de Wall Street Journal laat lezen en je gaat die kennis gebruiken om geld mee te verdienen, dan moet je ook betalen.

Dat is de vergelijking, niet 1 enkele persoon die wat leert voor zichzelf.
Dus als een journalist of een komiek spreekt over iets wat hij/zij gelezen heeft in de krant en daar komentaar op geeft moet je de krant betalen ? Voor mij is chatGPT als een prive freelance journalist die dingen foor mij persoonlijk gaat uitvogelen en dan samenvat. Moest ik daar een persoon voor betalen moet ik ook de bronnen niet extra betalen als die persoon al toegang heeft. Je kan natuurlijk AI bots de toegang ontzeggen, maar dat kan moeilijk retrospectief.

[Reactie gewijzigd door FluoDude op 24 juli 2024 06:53]

"Voor mij is chatGPT als een prive freelance journalist"

Er vragen tegelijkertijd 1 miljoen mensen wat aan die "priveé freelance journalist", dus het bedrijf die die duizenden journalisten in dienst heeft moet ook gewoon betalen voor hun gegevens.

Sorry hoor, maar als je niet inziet dat deze informatie door een commercieel bedrijf grootschalig gebruikt wordt, dan heeft het weinig zin om te discussiëren.

Welke rare voorbeelden je er ook bij bedenkt.
Als je als bedrijf massaal een groep mensen de Wall Street Journal laat lezen en je gaat die kennis gebruiken om geld mee te verdienen, dan moet je ook betalen.
Pertinent onwaar.
Ik denk dat de grote fout die je hier maakt, is dat deze AI niet echt iets leert. Het enige wat deze AI doet, is woorden samenvoegen uit andere bronnen om er een nieuw artikel van te maken. Je moet het dus vergelijken met als je een artikel aan het schrijven bent, je dat doet door de Wall Street Journal te lezen en de tekst aan te passen naar wat jij wilt. Ook bij mensen zou dit reden zijn om ze voor plagiaat aan te klagen.

Het grote verschil met mensen is, is dat deze AI op grote schaal meerdere bronnen combineert, maar het principe blijft hetzelfde.
Wat ik wel heel bijzonder vindt dat media bedrijven hun nieuws wel gratis verkrijgen, maar dat wat openbaar is, niet gratis laten consumeren.

Als er een ongeluk is, of iemand de lotto wint, gaan de media bedrijven die 'subjecten' dan ook betalen/compenseren?

Het is wat mij betreft redelijk vergelijkbaar hiermee. Je treft een situatie aan, je neemt dat in je op en verwerkt het tot een verkoopbaar geheel.
Achterhoedegevecht. Als er iets vergoed moet worden, zijn het rechtstreeks de menselijke auteurs, content creators ipv. mediabedrijven. Ik vermoed (hoop) dat er een toekomst aan de deur staat waar auteursrecht opnieuw individueel wordt, want geïnstitutionaliseerde tussenstappen er eigenlijk niet meer toe doen.
Als er iets vergoed moet worden, zijn het rechtstreeks de menselijke auteurs, content creators ipv. mediabedrijven.
Dit gebeurt al, alle mensen die je noemt krijgen gewoon betaald voor de inhoud die ze aanleveren. Doordat AI de content nu gratis overneemt worden de content die ze produceren nu echter minder waard voor de mediabedrijven, omdat die er minder geld aan verdienen.
Hoe bedoel je gratis overneemt?

Ze hebben het over gebruik voor training. Dat is héél wat anders!

Het wordt (voor zover ik het weet) niet gebruikt om AI dit nieuws voor te schotelen aan gebruikers.
Gebruik voor training is niet zomaar anders. Redelijk gebruik hangt namelijk van het doel af waaraan de eigenaar van da ai wil verdienen. Zomaar je ai trainen voor willekeurig commercieel gebruik is als onvoorwaardelijk maar andermans werk gebruiken om er vooral zelf commercieel voordeel aan te hebben. Voor nieuws of creatief gebruik andermans werk of gegevens gebruiken kent meestal ruimere mogelijkheden dan willekeurig maar welk commercieel doel. En ai is er duidelijk niet speciaal alleen voor nieuws of creativiteit, laat staan zonder winstdoelstelling.
En dan nog is het gewoon openbaar werk, dus daarom alleen al zou het geen probleem moeten zijn. Als ze het niet gelezen willen hebben, moet het niet online komen. De discussie over scraping eigenlijk.

Maar ik snap ze wel hoor, dit is een poging van media bedrijven om nog wat inkomsten te krijgen in een tijd dat steeds minder mensen geïnteresseerd zijn in 'nieuws'.
Werk is niet openbaar bezit en rechten vrij omdat je er publiek bij kan. Dat is juist meestal in de wet zo geregeld. Als iemand jou persoonsgegevens of werk online zet, wil dat dus niet zomaar betekenen dat een bedrijf het dus maar vrij mag gebruiken.

Dat soort rechten dat een ander niet zomaar je werk mag gebruiken zijn er dus duidelijk niet alleen om de eigenaar er aan te laten verdienen, maar om er in redelijkheid controle over te houden. Zoals controle dat een ander de tijd en moeite die je er in hebt gestoken respecteert. Dat je persoonlijke levenssfeer niet zomaar commercieel goed is. Dat ergens bij kunnen, gelegenheid hebben, niet zomaar rechten geeft om er vooral zelf beter van te worden ten kosten van de ander die je ongevraagd gebruikt.

[Reactie gewijzigd door kodak op 24 juli 2024 06:53]

Sorry maar die neural networks doen niets anders dan jij als mens, ze lezen de data en geven een "waarde" (score) aan woorden dmv tokenizers, that's it. Een "AI" zoals chatgpt doet niets anders dan "the next best word" voorspellen. Daarom is het grote onzin hier auteursrechten bij te halen. Schrijf je artikel dan niet als je niet wilt dat het gelezen word.
Wat ik wel heel bijzonder vindt dat media bedrijven hun nieuws wel gratis verkrijgen, maar dat wat openbaar is, niet gratis laten consumeren.
Nee, dat is nog geen nieuws. Het wordt pas nieuws als iemand er met een journalistieke bril naar kijkt, argumenten/ invalshoeken weegt, achtergronden onderzoekt, de eventuele maatschappelijke impact beoordeelt en er dan een artikel over schrijft. En dat kost geld. Dus als iemand anders meent dat eindproduct zomaar gratis te kunnen gebruiken om er zelf een betaalde dienst mee te vullen, ja, dan kun je verwachten dat de eigenaar van de content het daar niet mee eens is. Heel normaal lijkt mij.
Wat ik wel heel bijzonder vindt dat media bedrijven hun nieuws wel gratis verkrijgen
Media bedrijven betalen toch hun journalisten, redacties e.d? Dus ze verkrijgen hun nieuws niet gratis.
Dat zijn verwerkers, niet het onderwerp.
Die verwerking is wat het nieuws maakt.
Nee, dat is wat het leesbaar maakt.
Als het niet leesbaar (of hoorbaar/zichtbaar) is dan verneemt niemand het.
Dat maakt het niet minder nieuws.

Een ongelezen krant is nog steeds nieuws toch? Alleen heeft niemand die tot zich genomen.
Een individueel exemplaar van een krant kan niet gelezen worden, maar andere exemplaren waar hetzelfde nieuws in staat worden wel gelezen.
In je bovenstaande voorbeeld wordt het nieuws wel vernomen, ipv door niemand vernomen zoals je stelt.
Dat is wat mensen er graag van maken om met het vingertje te kunnen wijzen. Maar neen, de verwerkers maken het nieuws niet.
Wat is de waarde van 'nieuws' wat alleen maar is gebeurd maar waarvan niemand weet omdat het niet is verwerkt zodat iedereen er kennis van kan nemen?
Je kan het ook omdraaien... ai bedrijven die vergoedingen krijgen omdat media org. al op grote schaal gebruikmaken van hun ai toepassingen.
Maar daar betalen de media bedrijven ook voor, bijvoorbeeld API kosten. Als het AD integratie wilt met OpenAI zijn API’s dan kost dat gewoon geld.
Zeker en vooral ook nog in deze relatieve begin periode maar ik denk dat veel media bedrijven gebruik maken van eigen ontwikkelde api's maar wel op basis van informatie van ai bedrijven. Misschien is de vergelijking (nog) te zwart-wit maar media bedrijven gebruiken nu ook eigen ontwikkelde SEO api's in relatie tot bijv. Google.
Als een krant een artikel schrijft als ik iets uitspook met mijn leven, tja, dan hoor ik daar geld aan te verdienen?! Want zonder mij is er geen content... Dat is hun argument: Zonder ons Media bedrijven is er geen content voor AI, maar diezelfde media bedrijven zijn afhankelijk van gratis content gegenereerd door andere in de wereld.

Vanaf nu is een persmededeling van de President van de VS iets waar je moet voor betalen als media bedrijven. Dat slachtoffer van een ongeval? Moet je voor betalen want dat is hun privé content dat je omvormt naar betalende content. Ja maar dat was op de publieke weg! En? Die zelfde artikelen dat ChatGPD en andere AI op trained zijn ook publiekelijk. Waarom is het ok wat op de publieke weg gebeurt als gratis content te gebruiken maar wat publiekelijk staat op website, wel, daar moet je voor betalen ;)

Je kan argumenteren dat de media bedrijven Journalisten / Infrastructure kosten maken voor de publieke/gratis content om te zetten naar inkomst genereerde artikelen. Maar AI zoals ChatGPD doen exact hetzelfde. Die moeten ook kosten maken om de publieke/gratis media content waarop ze trainen om te zetten naar inkomst genereerde content. Denken ze dat die dataparken met 10.000 GPUs, ITers, enz gratis zijn?

Als een krant een artikel schrijft dat ik een asshole ben wegens de content dat ik hier neerzet. Tja, kranten, u moet mij betalen! Hell, Tweakers, ik heb content gemaakt voor uw website, waarom betaal je me mij niet?!! Google, u gebruikt mijn content in uw zoek resultaten! Betaal mij. ChatGPD u gebruikt mijn content om uw AI te laten leren, betalen maatjes! Al die andere bedrijven dat mijn content gebruiken voor marketing doeleinden, hey, geldbeugel open dank je wel.

Dit is gewoon de zoveelste "eten van beide kanten" situatie dat je vaak ziet in grote bedrijven, waar ze meer geld proberen uit hun deel van de content te krijgen maar de andere kant van die munt volop negeren.
Waarom is het ok wat op de publieke weg gebeurt als gratis content te gebruiken maar wat publiekelijk staat op website, wel, daar moet je voor betalen ;)
Iets wat gebeurt is op zichzelf natuurlijk geen content. Het wordt pas content als iemand er met een journalistieke bril naar kijkt, argumenten/ invalshoeken weegt, achtergronden onderzoekt, de eventuele maatschappelijke impact beoordeelt en er dan een artikel over schrijft. En dat kost geld. Dus als iemand anders meent dat eindproduct zomaar gratis te kunnen gebruiken om er zelf een betaalde dienst mee te vullen, ja, dan kun je verwachten dat de eigenaar van de content het daar niet mee eens is. Heel normaal lijkt mij.
maar microsoft schermt nu de databank van bing af. Data is geld, dat weten we toch allang? Het gaat er helemaal niet om dat het een AI is. We zijn helaas hard op weg alles achter een betaalmuur te zetren.
Als je werk maakt wat in de publieke ruimte verschijnt maakt dat het nog niet zomaar publiek bruikbaar om er als ander bedrijf of persoon commercieel aan proberen te verdienen. Voor creatief gebruik zijn er mogelijkheden, maar die zijn net zo goed niet zomaar oneindig. Daarbij gaat er meestal op dat je specifiek aan bronvermelding doet, waar de ai bedrijven duidelijk niet aan willen doen. En zelf bepalen wanneer je wel gaat betalen om zomaar commercieel te gebruiken is ook niet redelijk. Daar is het werk meestal niet publiek voor beschikbaar.

[Reactie gewijzigd door kodak op 24 juli 2024 06:53]

Als je werk maakt wat in de publieke ruimte verschijnt maakt dat het nog niet zomaar publiek bruikbaar om er als ander bedrijf of persoon commercieel aan proberen te verdienen.
Volgens welke wet? Volgens mij geeft de wet een auteur bepaalde specifieke rechten en dat heeft in feite altijd te maken met het mogen reproduceren van het werk, maar dat is niet wat je doet als je een AI traint op het werk van een ander, en het maakt niet zo gek veel uit of je commercieel bezig bent of niet.

[Reactie gewijzigd door Patriot op 24 juli 2024 06:53]

Ik zit zelf in een branche die AI kan omarmen of moet verafschuwen. Als ik dan vraag wat is het verschil met de mens die inspiratie opdoet. Wat is het verschil met de mens die een creatieve opleiding volgt. Wij kunnen niets zonder onszelf te ‘trainen’. Zelf de grootste kunstenaars niet.
Het verschil zit in het trainen denk ik, sommige mensen zijn autodidact en leren zichzelf dingen aan, anderen worden schools getraind of geoefend volgens disciplines die door autodidacten zijn gemaakt of ontworpen en model staan voor mensen die in een bepaalde wereld op vraag een product moeten kunnen leveren, inclusief stijl bijvoorbeeld. Voor de daadwerkelijke kunstenaar geld dat kunst gemaakt wordt als hij er zelf niet bij is.

Openai is nu vooral een getraind model zonder directe inspiratie (alleen kennis via een ML proces en in staat om opdrachten aan te nemen en te verwerken) en mogelijk/hopelijk ook nog zonder het vermogen autodidact te zijn.
Wat is het verschil met de mens die een creatieve opleiding volgt. Wij kunnen niets zonder onszelf te ‘trainen’.
Een belangrijk verschil is dat AI niet zichzelf kan trainen, maar de mens kan wel zichzelf trainen.
Veel van die nieuwdiensten hebben vaak een gedeelte met de betere (diepgrondigere) content achter een paywall zitten. Neem aan dat OpenAI dan ook zulk soort betaalde content kan benaderen om daarmee de diepgang te bevorderen. Veel berichten voor de paywall zijn over het algemeen nogal oppervlakkig en meer een lokkertje.

Valt nog te bezien wat hier als publiek wordt afgedaan en uit welke bronnen OpenAI put c.q. al contracten mee heeft. Kan goed zijn dat ze bepaalde bronnen zullen verwijderen en wellicht nog andere toevoegen.
Valt dit niet gewoon onder de copyright wetgeving?
Als de contentmakers per direct stoppen met het maken van nieuwe content storten de AI bedrijven ook direct in. Of kunnen alleen nog maar antwoorden genereren op basis van verouderde informatie. Niet zo heel gek dus dat mensen die de content maken daarvoor betaald willen worden.
OpenAI kan beter de naam veranderen want zo open is het niet, er wordt zwaar gecensureerd
Het blijft grappig dat een groep bedrijven voor wie 'van elkaar overschrijven' een geaccepteerde en dagelijkse praktijk is, direct begint te roepen dat ze geld willen zien als er een nieuwe technologische ontwikkeling is die grofweg hetzelfde doet.

Meer on topic: Lijkt me trouwens dat een OpenAI gewoon een licentie aan kan schaffen bij LexisNexis om nieuwsartikelen te gebruiken? Of wellicht bij een ander (nieuws)archief?

Overigens krijg ik hier wel een beetje een deja-vu gevoel van het gemopper van nieuwsbedrijven over Google: https://tweakers.net/nieu...-van-nieuwsberichten.html
De situatie bij Google vind ik wel een heel stuk anders. Zover ik weet kopiëren ze letterlijk de tekst van de nieuwsberichten naar hun eigen "overzicht" pagina's. Als een NRC een artikel van het AD letter voor letter over zou nemen zouden de NRC hiervoor ook een schadevergoeding kunnen eisen.

Wat OpenAI doet is eigenlijk wat heel veel journalisten doen: meerdere nieuwsbronnen volgen en zo snel mogelijk dit nieuws opnieuw verwoorden en in hun eigen krant publiceren. En dat is gewoon legaal.


Ik ben het er mee eens dat het op dit moment een lastige kwestie is, maar ik wil het duidelijk maken dat dit twee compleet verschillende situaties zijn.
Zover ik weet kopiëren ze letterlijk de tekst van de nieuwsberichten naar hun eigen "overzicht" pagina's.
Kopiëren ze het hele artikel, of maken ze m.b.v. citaten een samenvatting?

Dat eerste is problematisch. Het tweede valt waarschijnlijk onder het citaatrecht. Vergelijk het met iets creatiefs doen met de RSS-feed van T.net, of die bot op Reddit die nieuwsartikelen terugbrengt tot de essentie.

[Reactie gewijzigd door The Zep Man op 24 juli 2024 06:53]

Precies wat hij zegt is wat media bedrijven toen over Google zijden en zelf geen google nieuws gebruikt om te weten dat het niet klopt.
Maar wat hij google verwijt is wel wat chatgpt doet en dat is hele media artikel over lezen maar net iets anders dat het lijkt als nieuw. (als ik het goed begrijp)
Ik zie wel veel overeenkomsten tussen Google en een AI op gebied van het gebruik van informatie. Via Google kan ik het nieuws krijgen, zonder dat ik naar de website van het nieuwsbedrijf ga. Doordat Google het nieuws wel laat zien verdient Google geld (door advertenties), maar ontvangt diegene die het bericht heeft gemaakt minder inkomsten. (Aan de andere kant kan Google juist ook weer meer mensen naar het artikel verwijzen, maar dat terzijde.) Daarmee verdient Google geld aan de diensten van andere bedrijven zonder iets terug te geven.

Hetzelfde geldt ook voor een AI. Als een AI mij het laatste nieuws zou geven, dan gebruikt de AI informatie van een nieuwssite, terwijl de nieuwssite er op dat moment niks voor krijgt. Waar ik via Google vaak alsnog naar de nieuwssite wordt gestuurd, kan een AI alle informatie geven zonder dat ik op de nieuwssite terecht kom. Als niemand meer de nieuwssites betaald, is er ook geen geld meer voor journalisten die bepaalde onderzoeken uitvoeren en daarmee nieuws generen. Het lijkt mij meer dan logisch dat nieuwssite een vergoeding krijgen voor de artikelen die ze leveren.

Aan de andere kant verwacht ik van nieuwsbedrijven dat zij kwaliteit leveren en dus niet een artikel vol fouten, omdat een journalist de tekst van een AI niet gecontroleerd heeft :P
Het grote verschil is dat Google News wel gewoon echt aan de haal ging met een (gedeeltelijke) kopie van het originele werk en in het directe vaarwater van de originele auteursrechthebbende ging zitten. Dat is wel wezenlijk heel anders natuurlijk dan wat OpenAI doet met GPT. Je kunt nog een punt maken van het feit dat Bing nu wel bijv. de website van een krant zou kunnen bezoeken en de informatie uit het artikel kan doorvertellen, maar dat is in feite weer niet heel anders dan wanneer een mens het voor je zou doen en dat zou wel gewoon mogen.

Het probleem is gewoon dat een nieuwsmedium auteursrecht heeft op de tekst, maar niet op de nieuwsfeiten. Dus is het gewoon compleet legitiem om die nieuwsfeiten uit zo'n auteursrechtelijk beschermde tekst te halen en in je eigen woorden te publiceren.
Daarom vind ik de opzet van het Nederlandse WordProof ook wel charmant. Het anchoren van originele content om het inzichtelijker te maken wie er voor verantwoordelijk is en wie het simpelweg kopieert. Wellicht met een later stadium van makkelijker takedowns regelen en correcte compensatie voor content creatie.
Het blijft grappig dat een groep bedrijven voor wie 'van elkaar overschrijven' een geaccepteerde en dagelijkse praktijk is,
Ze betalen wel voor dat van elkaar overschrijven. Anders wordt er aangeklaagd wegens copyright schending. Weer anders is dat ze nieuws van elkaar overnemen maar zonder het over te schrijven.

Ik ben mijn recht om hier +jes en-tjes te geven al jaren kwijt. Omdat ik ontopic items die werden gemind pluste. Het is een beetje raar Nederlands wat ik schrijf maar je volgt me wel. Ik blijf het bizar vinden. De reden dat ik ook minder kom.

[Reactie gewijzigd door MrMarcie op 24 juli 2024 06:53]

Same here.. bizar ook.
Hier ook, omdat ik feitelijk correcte en met bronnen onderbouwde reacties een hogere score gaf dan gemiddeld. Ze kregen -1's omdat de lezers niet blij waren ermee, niet omdat ze incorrect waren. Dus als je niet hetzelfde modereert als de eerste paar snelle jelles ben je de sjaak omdat je teveel afwijkt van de gangbare mening welke in die gevallen niks met de feiten te maken hebben.

Op dit item kan niet meer gereageerd worden.