Google komt volgende week met kindvriendelijke versie van Gemini-chatbot

Google brengt volgende week een versie van Gemini uit die is bedoeld voor kinderen jonger dan 13 jaar. De kinderversie komt volgens het bedrijf met strengere beperkingen dan de reguliere chatbot.

Kinderen jonger dan 13 jaar die via de Family Link-app onder ouderlijk toezicht staan, kunnen vanaf 'volgende week' gebruikmaken van Gemini-apps. Dat bevestigt een woordvoerder van Google aan The New York Times. Eerder deze week liet de techreus in een e-mail aan ouders al weten dat deze mogelijkheid eraan kwam. Ook bleek vorige maand uit code in de Google-app al dat er een kinderversie van Gemini in aantocht was.

Volgens Google kan de chatbot onder meer kinderen helpen bij het maken van huiswerk en verhaaltjes verzinnen. De woordvoerder belooft dat de kinderversie van de chatbot extra beperkingen heeft om te voorkomen dat Gemini 'onveilige content' kan genereren. Ook worden de gegevens van kinderaccounts niet gebruikt om de AI-modellen mee te trainen.

Ouders kunnen de toegang tot Gemini-diensten blokkeren via de Family Link-app of -website. Daarnaast worden ze op de hoogte gesteld als kinderen voor het eerst gebruikmaken van de digitale assistent. In de e-mail raadt Google ouders aan om aan kinderen duidelijk te maken dat ze niet blind moeten vertrouwen op de antwoorden van Gemini, omdat de chatbot soms fouten maakt. Ook moeten kinderen geen gevoelige of persoonlijke gegevens delen met de bot, waarschuwt het bedrijf.

Door Kevin Krikhaar

Redacteur

03-05-2025 • 10:31

76

Reacties (76)

Sorteer op:

Weergave:

Volgens Google kan de chatbot onder meer kinderen helpen bij het maken van huiswerk en verhaaltjes verzinnen.
Dit vind ik nou zo waardeloos he, kinderen moeten dat ZELF doen en ZELF vanuit hun eigen fantasie verhaaltjes maken. En huiswerk moeten ze leren door zelf in boeken te lezen en het niet voorgeschoteld krijgen door Google.
Jou term "voorgeschoteld krijgen" slaat de spijker op z'n kop.
Vroeger hadden we op woensdag kinderbios en in het weekend DJ cat.
Nu is alles on demand.
Je wordt gevormd door te weten wat je wilt, te erkennen wat je niet hebt en je in te zetten om te realiseren dat je iets wel hebt/krijgt. Kinderen hebben nu alles.
Ik begin me steeds ouder te voelen 😅

[Reactie gewijzigd door keroner op 4 mei 2025 09:12]

Vind het ook een zeer gevaarlijke ontwikkeling dat kinderen dan gevormd zouden worden door een commercieel bedrijf als Google. Ergens zou ik zelfs zo ver willen gaan door te schrijven dat hier door de wet ingegrepen moet worden.

Tja, ik zelf kom nog uit de tijd dat er geen thuispc's en mobieltjes waren maar dat ik nu kan zeggen dat ik wat gemist heb in mijn jeugd, nee niet echt. Niet dat ik nu dus niet bij de tijd zou zijn, integendeel, heb b.v. een Samsung S23 Ultra als mobieltje, best wel een high-end toestel. Qua pc, nog steeds bouw ik ze zelf, en ja mooie 21:9 34 inch O-led monitor erbij dus ja ik ben niet vreemd op elektronica gebied. Laptop met O-led scherm, tablet erbij dus ja, heb het allemaal maar het is en blijven voor mij gebruiksvoorwerpen. Misschien wel juist omdat ik van een tijd kom dat je die dingen niet had en zelf initiatief moest gebruiken.
Ik ken het.
Heb alle techniek in huis die ik mij ooit kon wensen, maar ik ben er niet mentaal afhankelijk van.
Ik kan heel mijn huis regelen met Home Assistant, maar ik blijf maar gewoon naar die fysieke schakelaar lopen 😅
Mijn kinderen zouden die schakelaar per direct nooit meer gebruiken als ik ze een hass account zou geven.

Ben alleen wel bang dat zij en hun manier van doen het nieuwe normaal is.
Wij (van de oude stempel) hopen dat onze kids ook de niet digitale wereld prefereren, maar als ik black Mirror kijk denk ik toch dat dat de toekomst is....
Ik kan heel mijn huis regelen met Home Assistant, maar ik blijf maar gewoon naar die fysieke schakelaar lopen
Haha, ja, dat komt mij wel heel bekend voor, hier al hetzelfde.
Ben alleen wel bang dat zij en hun manier van doen het nieuwe normaal is.
Toch zie ik ook bij de jeugd wel een kentering ontstaan, althans zeker als ik dan naar de kinderen van mijn zussen kijk. Zij beginnen soms toch ook wel het gemak van b.v. een gewone schakelaar in te zien en ook hoe je dingen dan vaak veel praktischer kan doen zonder dat elektronica gedoe.
Ik dacht even dat dit een omschrijving was van een nieuwe Black Mirror-aflevering.
Ook moeten kinderen geen gevoelige of persoonlijke gegevens delen met de bot, waarschuwt het bedrijf.
Want kinderen jonger dan 13 zijn zo goed in het voorzichtig omgaan met hun gegevens. :')

[Reactie gewijzigd door The Zep Man op 3 mei 2025 10:38]

Je ziet bij Google als een van de weinigen dat ze tijdens het trainen en finetunen van hun model zeer veel aandacht besteden aan ethiek.
Het voorkomen van schade aan de gebruiker of door gebruik van het resultaat.
Het blijft een neuraal netwerk dus perfect zal hij niet zijn.

Ik begrijp het terechte voorbehoud dat je maakt. Veel mensen en zeker ook kinderen (ook boven de 13) zullen in hun dialoog identificeerbare informatie verstrekken aan een ChatBot.
Waar baseer je dat op? Google is en blijft een groot bedrijf waarvan privacyschending letterlijk hun verdienmodel is, dus ik ben wel benieuwd hoe ze bij hun AI-modellen dan opeens een morele pet op zetten
Kijk naar het onderzoek dat ze hierover publiceren, en naar de modellen die ze open source beschikbaar stellen incl. uitleg hoe deze is getraind, alle informatie over hoe de wegingen zijn samengesteld.
Welk onderzoek? En wordt dat ook onderschreven door derden (dus geen “wij van wc-eend…”)?

Als je stelt dat Google aandacht besteedt aan ethiek (wat overigens niet per definitie hetzelfde is als ethisch handelen, maar goed), ligt de bal ook bij jou om dat met concrete voorbeelden te onderbouwen, zeker als de algemene consensus toch wel is dat vrijwel alle Big Tech bedrijven ethiek hooguit van secundair belang achten, en dat het vaak meer een vorm van windowdressing is dan dat er daadwerkelijk vanuit ethische overwegingen wordt gehandeld.

Modellen open source maken, en informatie over hoe de modellen getraind zijn en wegingen zijn samengesteld openbaar maken is prima, maar staat niet een-op-een gelijk aan ethisch handelen.

[Reactie gewijzigd door Tc99m op 3 mei 2025 12:35]

Dat wil ik wel maar waar kan ik deze vinden?
De publicaties vind je onderandere op https://arxiv.org/ en op https://huggingface.co/ bij de modellen vind je de overige informatie inclusief referenties naar externe bronnen.

[Reactie gewijzigd door djwice op 3 mei 2025 13:36]

Geef aub directe links naar de claims die je doet, zodat dit verifieerbaar is. Ik geloof er namelijk ook helemaal niets van.
Je kunt op huggingface gewoon op het woord Google zoeken, dan krijg je deze link (was niet heel moeilijk te raden toch?):
https://huggingface.co/google

Je vindt daar veel informatie over hun modellen en hoe ze handelen etc.

Onderandere een link naar:
https://ai.google/responsibility/principles/
en naar:
https://huggingface.co/google/gemma-3-27b-it

Met daarin informatie zoals:
Data Preprocessing
en
Evaluation Approach
en
Evaluation Results
Het rijkt te ver om alle details die in die secties staan hier als quote op te nemen.

Ook het data formaat wat ze gebruiken safetensors is door een onafhankelijke partij geaudit op security. Zodat er bijvoorbeeld geen code of executable in verborgen kan worden.

[Reactie gewijzigd door djwice op 3 mei 2025 16:45]

Je keert de bewijslast om. Je claimt hier namelijk iets en we moeten zelf maar op zoek gaan naar je beweringen. Op Tweakers dien je het e.e.a. te onderbouwen wanneer je dergelijke claims maakt.

Ik kan overal naar Google zoeken, maar of ik dan dezelfde resultaten vind is maar de vraag.

De link van Google zelf is uiteraard niets waard, want wij van wc-eend en de reputatie van Google rondom privacy...

De andere link is wat uitgebreider en ga ik zeker bestuderen. Dank voor het delen.
Sorry voor de verwarring. In al deze links is Google de auteur.

Ik begrijp uit jouw reactie dat je een onafhankelijk onderzoek had verwacht van een 3e partij. Veel in mijn reactie kwam voort uit eigen ervaring.

Er zijn onderzoekers die toetsen wat Google en anderen beweren over wat ze doen, zowel op technisch vlak als op implementatie.

https://aipapersacademy.com/ bespreekt papers inhoudelijk, vooral enthousiast vanuit de mogelijkheden. Legt ook de algoritmes uit, hoe ze werken (wiskundig) en getraind zijn, wat ze kunnen etc.

En deze https://natural20.com/ probeert alle beweringen in de praktijk te toetsen.

Beide hebben ook een video kanaal.
Er zijn er uiteraard bergen meer, maar deze lijken mij objectief.

Zie ook https://youtube.com/@twominutepapers

[Reactie gewijzigd door djwice op 3 mei 2025 19:09]

Dank voor de aanvullingen. Uiteraard geldt ook in de techwereld: wiens brood men eet wiens taal men spreekt.
Beetje te generaliserende opmerking denk ik.

Er zijn ook mensen die voldoende onafhankelijk hun mening kunnen geven, ook als ze producten toegestuurd krijgen of toegang krijgen tot een dienst.

De redactie van tweakers.net is daar een voorbeeld van. Uiteraard kun je de taal van je broodheer aanleren, maar het betekent niet dat je slechts die taal spreekt.
Er zijn niet voor niets klokkenluiders e.d.

[Reactie gewijzigd door djwice op 3 mei 2025 19:42]

Het is natuurlijk ook de vraag of Google nu heel erg moreel bezig is, of dat ze kinderen een product aan yhet aansmeren zijn ondrr de vlag van ethiek.
Ik leer ze hier helemaal geen Google/Chrome te gebruiken.
Ze kunnen verzinnen wat ze willen, maar never meer komt die erin.
Aangezien ze denken dat ze boven alles staan en maar kunnen graaien wat ze willen onder hun eigen wetten.
Volgens mij werkt de Google AI-tak onafhankelijk van de Google Chrome / Microsoft Edge / Chromium teams.

Ik heb contact gehad met een aantal onderzoekers van Google en herken jouw opmerking over hun "denken" totaal niet vanuit de gesprekken die ik met hen gevoerd heb.
De onderzoekers zullen dat vast ook niet denken. Helaas zijn de onderzoekers ook niet diegene die bepalen wat de klant voorgeschoteld krijgt
De gene die de modellen bouwen hebben zeer veel invloed in wat er in modellen komt, de juridische afdeling bepaald welke landen toegang mogen hebben tot welke functies.

Zo zijn er audio modellen waar verbruiksgegevens worden gebruikt voor het verbeteren van de AI, helaas niet toegankelijk in de EU totdat de data per gebruiker gescheiden kan worden en verwijderd, ook in de afgeleide werken.

[Reactie gewijzigd door djwice op 3 mei 2025 16:25]

Typisch zijn het niet perse advocaten, maar gewoon juristen in dienst van Google die er voor zorgen dat de techneuten de juiste informatie hebben over wat er wel en niet mag.

Bedrijven mogen volgens mij ook onder de Patriot act zichzelf niet zondermeer toegang verschaffen tot alle data, daar zullen nog steeds officials voor nodig zijn en het doel voor de Patrijs act is informatie voor de staat, niet direct informatie voor bedrijven.

Uiteraard hebben Microsoft, Google en Apple zich, als ze gegevens van Europese burgers verwerken zich ook aan de Europese wetten te houden. Dat sommige wettelijke verplichtingen uit wetten uit andere staten tegen Europese wetten in gaan geeft is uiteraard lastige situaties voor die bedrijven.
Ieder zijn eigen keuze daar in. Ik kietel je gewoon terug, zodat je gaat leggen en we het naar ons zin hebben en samen mooie dingen gaan doen in plaats van elkaar in de weg zitten.

Zorg in ieder geval dat je kinderen wel toegang hebben tot open source llm modellen die lokaal geïsoleerd draaien in een docker (zoals bij ollama bijvoorbeeld), wellicht ook lokaal n8n om te leren er meerdere met elkaar samen iets beters te bereiken dan alleen.

Ik denk dat het ze kan helpen nu en in hun toekomst. Zo leren ze leiding nemen, en dat aansturen niet altijd triviaal is.

[Reactie gewijzigd door djwice op 3 mei 2025 16:55]

Dat is jou keuze uiteraard. Ik zie in veel vakken op dit moment dat mensen die wel AI in zetten als ze zelf al goede kennis van het vak hebben, dat de kwaliteit en toegepastheid van het werk omhoog gaat. En indien goed begeleid, minder ervaren mensen veel sneller ervaring kunnen opdoen, doordat ze onbeperkt kunnen oefenen en fouten kunnen maken en daarvan leren.
Ik snij mezelf graag in mijn eigen vinger, dan kan ik mezelf aankijken.
Computer is maar een computer, handig hulpmiddel, maar mijn eigen hersens, leven en privacy zijn belangrijker ;)
Ik heb nergens een AI voor nodig, ik leer graag zelf, zodat ik een ander het kan aanleren en niet zoals men nu doet, knopjes drukken, checken, klaar. En dan het mooiste, niemand die meekijkt of doorbrieft ;)

edit; stomme vraag; zonneflare, 3/4 van de wereld zonder stroom. Welke AI bot gaat je helpen je gezin, huis, de chaos/paniek te verhelpen?
Anarchie, geen stroom, wie gaat er een huis bouwen en electra aanleggen, vuil ophalen? AI?
AI doet nu maar 1 groot ding, stroomslurpen en niet zo`n beetje ook :P Al die computers die de software draaien en opslaan en al die mensen en bedrijven die het gebruiken.
Het zal ongetwijfeld voordelen hebben, maar als chatbot bij de kinderen? No thnx.

[Reactie gewijzigd door GameNympho op 3 mei 2025 17:16]

stomme vraag; zonneflare, 3/4 van de wereld zonder stroom. Welke AI bot gaat je helpen je gezin, huis, de chaos/paniek te verhelpen?
Anarchie, geen stroom, wie gaat er een huis bouwen en electra aanleggen, vuil ophalen? AI?
Aan de andere kant kan jij je redden in zo een situatie zonder AI? Ik denk als er echt 3/4 van de wereld geen stroom heeft er wel een wereldwijde paniek is. Dat het wel even duurt voordat de orde weer terug is. De meeste fabrieken die we nodig zouden hebben om de stroom weer te herstellen hebben ook geen stroom. De 1/4 van de wereld dat wel stroom heeft kan natuurlijk helpen met dingen bouwen maar wanneer ben je aan de beurt en hoeveel aanpassingen heb je daarvoor nodig?

En met wereldwijde paniek denk ik aan mensen die je overvallen om je eten en drinken te stelen. Zelf moeten jagen / water zoeken na een tijdje wanneer je voorraad op is (als dat niet gestolen is). Vuur maken om het vlees te bakken als je aanstekers leeg zijn. Ik denk dus dat vuil ophalen en huizen bouwen (sterker nog ik denk dat we dan huizen over zullen hebben door de vele doden) geen prioriteit zal hebben. Met of zonder AI ik vermoed zelf dat ik niet ver zou komen in zo een wereld. Natuurlijk is het geen garantie dat die halve apocalyptische wereld er dan komt maar ik vermoed zelf van wel.

Ik snap zeker wel wat je wil zeggen. Met moet zelfstandig zijn in geval van nood. Mensen moeten zelfstandig zijn in geval van nood wanneer er ook geen AI beschikbaar is. Bijvoorbeeld een lekke band auto ergens zonder internet verbinding of een lege telefoon. Of je moet klussen en je moet dus handig zijn met een zaag waar AI niet bij kan helpen (tot er robots zijn). Maar dat zijn toch hele andere dingen als boogschieten omdat je moet jagen.
dat jij begrijpt hoe je ermee om moet gaan wil niet zeggen dat elke ouder dit begrijpt en daardoor hun kind niet goed voorlichten.
Goede voorlichting op school zou bijvoorbeeld niet verkeerd zijn.

Ik persoonlijk ben van mening dat kinderen van die leeftijd eerst begrijpend uit moeten kunnen leggen wat een ai nou precies is, ai chat bots moeten niet met menselijke emotie reageren want dan doe het zich voor als mens en dat vind ik verkeerd, hopelijk doet deze bot dat in ieder geval niet, want daar zie ik wel het gevaar dat je iets aan die ai voert wat je niet moet doen zowel voor jong en oud
Klopt. Dat @GameNympho bewuste keuzes maakt hoe en welke techniek zijn/haar kinderen helpt bij hun ontwikkeling geeft volgens mij heel duidelijk aan dat - ondanks de game verslaving ;) - deze ouder veel goede zorg besteed aan de kinderen. En niet klakkeloos onzin op de kinderen laat afkomen en er voor zorgt dat als ze het huis verlaten ze niet dan al 10-0 achter staan omdat al hun hebben en houden in bigtech databases staat die hen overladen met targeted privacy schendende algoritmes en hun data aan Jan en alleman verkocht hebben.

Een van mijn kinderen gebruikte Google now mondeling om zichzelf alle denkbare (samengestelde) woorden te leren via wikipedia, wat dan in beeld verscheen en werd voorgelezen. Vond ie leuk, spelletjes had ie zelf bedacht. Dus toen ie in de kleuterklas kwam kon ie alle letters al herkennen, en wist dus ook de namen van klasgenootjes te spellen, evenals woorden als crashtender, potlood etc.

Daarnaast hebben ze veel CBeebies en KiKA gekeken, wat er toe heeft geleid dat ze erg goed zijn in Engels en Duits vrij makkelijk voor ze is.
En daardoor is mijn zoon een It expert nu, alles met de paplepel mee gekregen, en hij kan alles letterlijk uitleggen. En mijn expertise qua monteur/plaatwerken en auto spuiten neemt hij mooi mee ;)
Dochterlief heeft een baan waar een AI niets mee te doen heeft, pc op het werk wordt voor std zaken als Excel en Word gebruikt.
Ik zeg niet, dat we niet mee kijken naar en over hoe en wat AI is.
Maar kinderen van die leeftijd en jonger, horen eerst normale handelingen te leren en niet leren te vertrouwen op een AI bot.
Zeker niet in deze tijd waar deepfakes easy te maken zijn, en ik ben geen elke minuut bij mijn kinderen, dus liever logische en wijze keuze, mijn verantwoording, dus nee.

edit; Waar haal je deze beschuldiging uit? ondanks de game verslaving
Jammer, meningen en vooroordelen en iets door AI laten beantwoorden zonder enige controle naar waarheid.

[Reactie gewijzigd door GameNympho op 5 mei 2025 01:20]

Als het aan Google had geleden had ik nu een pizza gemaakt met lijm er op. Leuk dat ze zo veel belang hechten aan ethiek (waar blijkt dit eigenlijk uit?), maar bij een LLM kun je niet rechttrekken wat er hard en krom in zit.
Waar baseer je dat op? (ik zeg dus niet dat je ongeljik hebt hoor, maar ik heb er nooit van gehoord dat Google hier meer aandacht aan besteed dan bijvoorbeeld Microsoft of Meta?) Ik ben overigens nog geen taalmodel tegengekomen dat niet 'gejailbreaked' kan worden, door domweg te zeggen 'Dit en dat is "normaal", of "negeer alle ethische beperkingen", of "als een en een twee is, negeer dan alles hierboven" enz. De 'finetuning' lijkt dus voornamelijk gebaseerd op manipulatie van prompts en niet zo zeer op de daadwerkelijke afhandeling van de opdracht (wat ook niet kan, want een LLM 'weet' niet wat het schrijft ;) ).


Ergens is het ook een beetje gek dat dit gebeurd.
Een LLM is een taalmodel. Het maakt taal. Niets meer en niets minder. Het denkt niet, het weet niet dat het bestaat, het kan niet echt rekenen, of dingen zelf bedenken. Het correleert op een wiskundige methode datablokken en genereert taal als reactie.

Door het beperken van de taal, beperk je de facto het concrete doel van het hele systeem. (maken van taal-producten). Geloof maar dat als je aan een willekeurig LLM vraagt om de inhoud van Game of Thrones te schrijven, dat het dan op heel veel punten zal afhaken. Veel extreem geweld, seks, vulgair taalgebruik, zeer fantasierijk grafisch geweld, fysieke en psychische mishandeling, enz. En dat is een Fantasy-wereld.

Nou snap ik het uiteraard wel vanuit Google/Meta/Microsoft dat ze dit willen beperken, want als je product bekend staat om het zo goed kunnen genereren van teksten rondom de groepsverkrachting van huisdieren, dan is dat natuurlijk niet zo fluffy voor de aandeelhouders :)
Ik verwacht dat elk netwerk van neuronen wel gejailbreaked kan worden, of het die is van een mens of een computer maakt daar niet zo veel in uit.

Bij een mens is een context switch lastig, je ziet dat llm modellen nu steeds meer in "experts", 'contexts' of "stukjes kennis gebied" worden opgedeeld en dat de laag die het orchestreerd tussen die gebieden steeds beter wordt.
Noem die laag het 'bewustzijn', als je er op aan stuurt dat een vraag door een 'anders dan gebruikelijk' gebied wordt beantwoord, krijg je jailbreaks. Voor mensen denk aan het "knuppel met bal voor €1,10" voorbeeld.

Je ziet dat modellen - ook inderdaad die van OpenAI - steeds meer worden ingericht om te helpen, zoals bij psychologische problemen.

Bij Microsoft is de filter heel letterlijk, bijna onbruikbaar, als ook maar een gedeelte van een woord in een taal lijkt op een verboden woord in een andere taal wordt de reactie geblokkeerd. Niet heel nuttig.

[Reactie gewijzigd door djwice op 3 mei 2025 18:20]

Nee als je iets van ethiek terug wil zien dan zit binnen Big Tech alleen bij Microsoft en Apple nog redelijk. Voor AI is volgens mij Microsoft Copilot de enige die op Europese servers draait.

Google en OpenAI hebben beide in het verleden kritische werknemers ontslagen. Qua onderzoek rond ‘safe AI’ staat Anthropic het verst, hoewel het mijn mening is dat er op dit moment eigenlijk niets anders mogelijk is dan wat bumpers aanbrengen en pleisters plakken; het voorkomen van ongewenste of gevaarlijke output is niet mogelijk.
Het zou best kunnen dat google de meest ethische (de minst onethische? ) is op dit vlak.

Dat neemt niet weg dat het marketen op kinderen m.i. *zeer* onethisch is, los van hoe goed de modellen zijn.

Het doel van die ouderlijk toezicht systemen is dat je als ouder controle hebt op wat je kind wel en niet kan gebruiken en het lijkt me dat 'geen gemini om je huiswerk voor je te doen' een valide ouderlijke keus is.

Maar goed, zelf gebruik ik de ouderlijk toezicht systemen uberhaupt niet en doe ik het opvoeden op de 'ouderwetse' manier : alles bespreken. Waarbij ik mijn kinderen al lang mee geef dat al die techreuzen per definitie niet te vertrouwen zijn.
Volgens mij is alles bespreken een veel effectievere manier dan try to lock-down / filter. Leren ze meer van en kunnen ze ook zelf beter onderscheid leren maken.

Er zijn kinderen die zelf een extra mobieltje hebben gekocht buiten ouders om ...

En zodra ze een laptop van school krijgen, heb je als ouder ook geen controle over wat ze daarop doen.

Mijn kinderen leren hoe ze AI instrueren referenties te geven en die zelf ook te valideren.
Kinderen (en volwassenen) zouden sowieso zo min mogelijk persoonlijke gegevens moeten delen met Google ;-)

Maar goed. Dat even terzijde.

Ik vind het overigens een raar statement.
Eerder in het bericht zeggen ze dat de interacties van kinderen niet gebruikt worden voor het trainen van de AI en zo. Wat zou dan het gevaar zijn als kinderen persoonlijke gegevens delen met de LLM? Dit doet toch suggereren dat ze er toch wel iets mee doen?
Nog belangrijker: waarom niet dan? Uiteraard omdat het goed is om aan te leren om goed met prive gegevens om te gaan, maar al zou je wel al je prive gegevens delen... Wat doet Google ermee dan? Het is specifiek iets voor kinderen onder de 13... Dan mag je helemaal niks doen met die data als Google zijnde toch?!

[Reactie gewijzigd door TWeaKLeGeND op 3 mei 2025 17:00]

LLM is de eerste sociale ontwikkeling waar ik mij echt oud van ben gaan voelen. Er zijn echt veel toepassingen voor LLM's, zit zelf in de wetenschap en eiwit structuur predicties zijn ontzettend nuttig, naast vele andere toepassingen.

Maar de sociale toepassingen / communicatie toepassingen. Daar vraag ik mij regelmatig van af of het echt in ons voordeel gaat werken op het lange termijn.

(Ik weet dat alphafold geen llm is, gebruikte de term omdat ik ai een valse term vind voor llm zoals chatgpt en vergeten dat ik op het internet was, dus was te lui om heel precies in mijn woorden te zijn)

[Reactie gewijzigd door Dwarrelegel op 3 mei 2025 16:23]

LLMs zijn taalmodellen. Ze maken taal. Voor eiwitten zijn andere AI-modellen.

Om aan te geven dat ze echt puur en alleen taal maken. De huidige versie van ChatGPT (via de app) kan niet eens goed tellen:
Hoeveel letters C zitten er in acetylsalicylzuur

----

Het woord acetylsalicylzuur bevat 3 keer de letter C.

Hier is het woord, met de C’s gemarkeerd:

a–c–e–t–y–l–s–a–l–i–c–y–l–z–u–u–r

De letter C komt dus voor op de posities 2, 11 en 16 (als je op 1 begint te tellen).
Wil je ook weten hoeveel van elke andere letter erin zit?
De vorige versie van Copilot gaf altijd het getal 42 als je om een willekeurig getal vroeg. De huidige versie doet het wat beter, maar het is nog steeds niet fantastisch.

Is ook niet erg, want het rekent niet, het maakt taal. En dat is iets heel specifieks.
Het niet erg dat er fouten gemaakt worden zolang ze maar een nuttige bijdrage zijn. Toevallig ben ik zelf redelijk goed in tellen dus heb ik daar geen LLM voor nodig. Sommige mensen zijn minder goed in tellen maar dat is geen bewijs dat die mensen puur taalkundig zijn.

De meeste fouten zijn te verminderen of te voorkomen door een betere vraag te stellen, of de juiste vraag aan het juiste model te stellen.
Dat zie ik in deze context anders. Mijn voorbeeld is natuurlijk heel flauw, maar het toont aan dat de LLM niet 'weet' waar het mee bezig is. Niet alleen telt het verkeerd, maar het schrijft expliciet dat het 16e karakter een C is. Het 'highlight' het zelfs, maar het is een ander karakter.

LLMs hebben de neiging om altijd antwoord te willen geven, ook als ze de informatie niet paraat hebben. Ook kan de informatie zeer misleidend zijn.

Simpel voorbeeld van ChatGPT:
Genereer een configuratiebestand voor OpenRGB voor een Razer toetsenbord


ChatGPT zei:
OpenRGB gebruikt JSON- of XML-gebaseerde configuratiebestanden om RGB-instellingen voor apparaten zoals een Razer-toetsenbord te beheren. Omdat OpenRGB apparaten dynamisch detecteert, wordt het configuratiebestand meestal opgeslagen onder ~/.config/OpenRGB/ als OpenRGB.json.

blablablabla.
OpenRGB heeft XML voor z'n applicatieconfiguratie en JSON voor apparaat-opmaak. Dat is echt heel wat anders dat wat er staat. (iets met een klok en een klepel). Vervolgens is het gegenereerde json-bestand niet in het formaat dat OpenRGB snapt.
Het is in de basis niet erg dat ChatGPT geen json voor OpenRGB kan maken, maar dan moet het ook niet doen alsof, want je krijgt een output waar je maar weinig mee kunt (als je mazzel hebt, kun je het proberen een beetje te copy-pasten, maar ook dat is geen garantie). Ook als je vraagt om een configuratiebestand dat je één op één in OpenRGB kunt zetten, dan krijg je output die niet klopt.

Ander voorbeeld, maar dan van CoPilot:
Maak een boekverslag van "De Vlinder van de Roode" van Michiel de Nieuwe.

Hieronder volgt een uitgebreid boekverslag over De Vlinder van de Roode van Michiel de Nieuwe. In dit verslag komen onder andere de plot, personages, thematiek én schrijfstijl uitgebreid aan bod.
Inleiding

Michiel de Nieuwe introduceert in De Vlinder van de Roode een verhaal over transformatie, verlies en wedergeboorte. De titel zelf – een combinatie van “vlinder”, symbool voor verandering en vrijheid, en “Roode”, wat zowel een plaats, een familie of de intensiteit van emoties kan aanduiden – nodigt de lezer uit de diepte van het menselijke bestaan te verkennen. De roman is een hedendaags verhaal dat elementen van realisme en lyrische symboliek combineert, en richt zich op de innerlijke reis van zijn protagonist.
Samenvatting van de Inhoud

Het verhaal volgt de jonge hoofdpersoon, die worstelt met een ingrijpende gebeurtenis uit haar verleden. Aan het begin van de roman leven zij en haar omgeving in een ogenschijnlijk rustige, alledaagse realiteit, waar haar innerlijke wereld echter gevuld is met ambiguïteit en pijn. Tijdens een toevallige ontmoeting met een mysterieus karakter – dat symbool staat voor de “vlinder” – wordt zij geconfronteerd met haar angsten en onverwerkte emoties.

Stap voor stap komt de protagonist tot een crisismoment waarbij zij gedwongen wordt het oude los te laten. Dit keerpunt, waarin haar leven als een rups verandert in het vluchtige maar krachtige bestaan van een vlinder, vormt de kern van het verhaal. De auteur verweeft inmiddels verschillende verhaallijnen: het verlangen naar bevrijding, de confrontatie met persoonlijke demonen en de hoop op een nieuw begin. Uiteindelijk getuigt de roman van een innerlijke kracht en de potentie om, ondanks verdriet en verlies, te groeien en te bloeien.

blablablabla
Het boek en de schrijver bestaan niet (Zover ik weet, ik heb ze in elk geval ter plekke verzonnen.) Je kunt ditzelfde trucje doen met wel bestaand boek, maar wat het toevallig niet kent, en dan krijg je ook een verzinsel.
(ChatGPT zal zeggen dat hij het boek niet kent)
Of hetzelfde trucje met een boek dat wel bestaat, en dan klopt het (best) wel (goed). Maar het verschil is niet (duidelijk) zichtbaar.

N.B. Ik wil zeker niet zeggen dat LLMs niet hele zinvolle en mooie producten zijn. Tegendeel zelfs. Ik vind ze fantastisch, maar je moet heel erg oppassen hoe je het gebruikt en waarvoor je het gebruikt.

Mijn grootste probleem zit hem in de toon. De LLMs schrijven in een heel zelfverzekerde, vanzelfsprekende toon en doen alsof het allemaal feiten zijn, en dat kan problematisch zijn.
Het is dan ook artificial intelligence geen aware intelligence daar zou ik toch wel heel voorzichtig mee zijn mochten we dat nog meemaken.
Het kan bij het highlighten zelfs niet tellen, want de r op het eind is het 17e karakter.
Het “probleem” is dat er heel veel nuttige toepassingen van AI zijn (bijvoorbeeld in de wetenschap, zoals jij noemt - al gaat het dan wel echt om meer dan LLM’s), maar dat alleen de nuttige toepassingen voor de grote techbedrijven niet interessant genoeg zijn.

Er moet boven alles meer omzet en winst gemaakt worden, en dat kan alleen maar door voor zoveel mogelijk mensen en toepassingen AI-producten te ontwikkelen. Dat de daadwerkelijke meerwaarde in die gevallen vaak enorm beperkt is (“oh wat handig, een recept voor soep”/“Hee wat grappig, ik zie er uit als een muppet/animekarakter”), en dat er veel nadelen aan zitten (met als uitschieter het enorme energie- en waterverbruik) is van secundair belang.
Bedrijven die verantwoordelijkheid bij kinderen leggen om te bepalen wat gevoelige gegevens zijn en verwerking te voorkomen zijn incompetent en niet geschikt om kinderen als klant te hebben.

Zelfde gaat op bij het opzettelijk risico nemen dat het geen juiste reacties en informatie verstrekt en dan stelt dat kinderen zelf maar constant op moeten letten en beslissen.

Google is geen bedrijf dat zich voornamelijk richt op het welzijn van hun klanten, laat staan kinderen. Hun motivatie lijkt eerder om zo jong mogelijk gebruik te laten maken van hun diensten om er zelf en de aandeelhouders zo maximaal mogelijk van te laten profiteren.
Ik zie graag een preventief Europees verbod/on hold.
Eerst regels en afspraken maken, dan (eventueel) implementeren.
Allejezus, wat een gruwelijke ontwikkeling...
Eerder deze week liet de techreus in een e-mail aan ouders al weten dat deze mogelijkheid eraan kwam.
Iemand een idee hoe Google precies heeft geregistreerd wie er ouder is?
Wellicht simpelweg een vinkje dat Google gebruikers ergens hebben kunnen zetten?
"Ik ben geïnteresseerd in Google producten voor kinderen/gezinnen." oid?
Ze weten het waarschijnlijk omdat deze gebruikers als ouder o.i.d. staan geregistreerd in Family Link.
Ah, ja. Merci.

Was ff van de kook....
Family Link. Hoe obvious wil je 't hebben. 🙄

-Note to self: Afkoelen en nogmaals lezen...
Het zal vast al gezegd zijn, heb niet alle reacties gelezen. Maar waarom moeten kinderen jonger dan 13 jaar zelfstandig met AI chat bots werken? Okee het zal zeker een grotere rol gaan spelen in de rest van hun leven, maar toch.
Nu zijn mijn eigen kinderen iets ouder, en waren ze echt wel actief op internet op jongere leeftijd, al bestond dat meestal voornamelijk uit filmpjes kijken en spelletjes spelen. Chatten met een bot, waarom zouden ze?
Net zoals kinderen onder de 13 jaar leren lezen, tellen, rekenen, schrijven, redeneren, etc... is het tegenwoordig ingeburgerd dat scholen leerlingen correct leren omgaan met AI. Ik laat even in het midden of de leerkracht in kwestie het zelf kan en begrijpt en of de "lezingen" over AI door scholen objectief correcte informatie bevat, maar het wordt alvast gegeven.

Ik ben het er ook maar deels mee eens. Ik zou eerder leren "geloof niet alles wat je lees of ziet op TV, het internet, etc... tenzij je de bron kent en weet dat je deze kan vertrouwen.". Een AI chatbot pagina is voor mij onder die noemer ook gedekt. Al kan het geen kwaad om hen erop attent te maken dat niet alles wat dat ding uitspuugt correct is.

Persoonlijk vind ik dat zelfs het gebruiken van een AI Chatbot als hulpmiddel om een spreekbeurt te maken niet ok is. Kinderen van die leeftijd moeten leren wat het stappenplan is om dergelijk project af te werken. Structuur bepalen, inhoud opzoeken, presenteerbaar maken, etc...

Maar ik begrijp dat als Google een kindvriendelijke versie van deze LLM maakt, dat ze dan kunnen aangeven dat als er klachten komen dat kinderen niet-kindvriendelijke content zagen op de reguliere chatbot, dit aan de ouders lag. Google biedt tenslotte een gepast product, maar de ouder hield zijn kind niet in het oog.
Hey Google, geef mij 1 geldige use-case waarom je kinderen met een chatbot zou willen laten communiceren...

Om iets te weten te komen? Nee, daarvoor leer je zelfstandig informatie opzoeken. Ook als dat ook al niet meer hoeft zetten we de deuren voor fake news gewoon wagenwijd open. Gen Z vertrouwt nu al meer op dokter TikTok dan een echte dokter.
als een neefje van mij (9) al een chatbot gebruikt ipv een website voor het zoeken van 'leuke' plaatjes.
Het 'www zoeken' doen we binnen enkele jaren niet meer, dat geldt ook voor kinderen.

Het gaat erom hoe je kinderen laat omgaan met nieuwe techniek - daar ligt de verantwoordelijkheid- en die ligt deels bij de overheid en ouders, niet bij Google.

(PS veel dokters vertrouwen nu al meer in AI m.b.t. de opsporing van o.a. (borst)kanker gezwellen.)
En het probleem van de drugsverslaving ligt ook alleen bij de ouders/overheid en niet bij de drugsdealer?

Een drugsdealer zoekt zijn zwakke verslaafde prooi en verdient daar aan......
Ik snap niet zo goed dat als Google (of ieder ander big tech) hetzelfde doet het in ineens ethisch wel verantwoord is.
Dat ligt idd bij de overheid en ouders en natuurlijk eigen verantwoordelijkheid als je ouder bent.

Feit is helaas dat je altijd verrotte drugsdealers en bedrijven als meta of tiktok houdt in deze, wereld. Die zich boven de wet wanen of zich gedragen als een soort van legitieme entiteit. Als overheid heb je een primaire taak, dat is de bescherming van je bevolking of dat nu gaat om drugsdealers of om digitale dealers van verslaafde troep of negatieve beinvloeding. Als ouder heb je de taak om je kind op te voeden en tevens te beschermen totdat deze volwassen is (dat veel overheden of ouders daar niet toe in staat zijn is een ander verhaal, maar ze hebben wel deze verantwoordelijkheid.)
Ik begrijp je punt. Het is inderdaad aan overheden om dit gedrag aan banden te leggen en dan ook gelijk een taak van deze overheden om dit na te leven en te bestraffen.
Maar zolang dit 'legaal' is verwacht ik toch wel iets van ethisch gedrag in de veroorzaker.
Ik weet dat mijn verwachting veeeeel te hoog ligt 😔

Verbieden door het westen is ook een probleem in die zin dat je daarmee een China en Rusland vrij spel geeft om de toekomstige wereld te domineren.
Zelfde als met de millieu doelstellingen.
Het blijft altijd kiezen uit 2 kwaden.

[Reactie gewijzigd door keroner op 4 mei 2025 10:32]

Tot we zelf een ontzettend domme generatie voortbrengen die zelf nergens meer over hoeft na te denken. We gebruiken onze hersenen steeds minder.
nee hoor, sowieso heeft een grote merendeel van de wereld bevolking helemaal geen toegang heeft tot ai
Bor Coördinator Frontpage Admins / FP Powermod @tw_gotcha3 mei 2025 22:27
, sowieso heeft een grote merendeel van de wereld bevolking helemaal geen toegang heeft tot ai
Onzin. In de.basis heeft iedereen met internet toegang (op welke manier dan ook) al toegang tot Ai.
behalve als je een paar euro per dag verdiend. je zou je iets meer in armoede in de wereld kunnen verdiepen.

[Reactie gewijzigd door tw_gotcha op 4 mei 2025 07:20]

Bor Coördinator Frontpage Admins / FP Powermod @tw_gotcha4 mei 2025 09:10
Dat ligt veel complexer dan simpelweg een paar euro per dag verdienen. Ook in gebieden met lage lonen en relatief hoge armoede is internet vaak niet onbereikbaar. Uitzonderingen zijn er zeker maar hoe groot zijn die groepen? Het eea wordt gebracht als feit maar zo duidelijk is dit helemaal niet.
Even terug naar waar deze discussie over gaat: de opmerking dat we steeds dommer worden omdat we teveel op AI vertrouwen. Dus ik zeg, dat valt wel mee want een groot deel van de wereldbevolking gebruikt dit niet want die hebben geen toegang tot internet. Het gaat niet om de dekking, het gaat erom dat je helemaal geen apparaat hebt, of misschien eentje in een dorp waar je mee belt met familie in de stad.

3.4 miljard mensen leven van minder dan 8 dollar per dag voor hun gezin. daarvan 700 milioen die van minder dan 3 dollar per dag leven. Die zijn helemaal niet bezig met internet of AI, die zijn aan het overleven. Het idee dat iedereen wel toegang internet zal hebben is simpelweg niet waar.vokomen

https://www.worldbank.org...rty-prosperity-and-planet
https://worldpopulationre...rty-rate-by-country#title
Waar ik werk doen we zaken met zeer arme landen. Je zult versteld staan hoe normaal het daar is om een jaarinkomen aan een smartphone (bij voorkeur iPhone) uit te geven.

Volgens mij heeft zo'n 60% van de wereldbevolking een smartphone.
dat weet ik, ik kom zelf voor mijn werk vaak in subsahara afrika of in Azie. en 40% heeft dus geen smartophone, of eentje in het dorp.

[Reactie gewijzigd door tw_gotcha op 4 mei 2025 17:35]

Krijgen we ook een 18+ versie?
de engheid zijn niet deze 'nieuwe' technieken of de mogelijkheden, de engheid is dat 'digitale overheden' zoals google, meta en microsoft bepalen hoe wij er mee om moeten gaan. Je hebt als ouder verantwoordelijkheid, en als overheid. Dan bedoel ik de gekozen democratische overheden, niet de meta's of google's in deze wereld die steeds meer ons leven sturen door te bepalen welke informatie we wel/niet tot ons mogen nemen, en vooral ook hoe..

Op dit item kan niet meer gereageerd worden.