Door Arnoud Wokke

Redacteur Tweakers

Een race die een keer moet eindigen

Ruim twee jaar na ChatGPT is AI overal

05-01-2025 • 06:00

242

Singlepage-opmaak

Tot slot

hyves
Hyves

Als het verleden iets heeft laten zien, is dat races altijd stoppen. Niemand kan eeuwig sprinten; op een gegeven moment moet je gaan ontwikkelen in een comfortabele draf. Techbedrijven zijn nu al een paar jaar in een sprint en dat is duidelijk te zien. We hebben veel soorten AI gezien en de potentie is voor veel mensen vermoedelijk zichtbaar.

Er zijn ook keerzijdes. Het gaat allemaal snel en in de tussentijd heeft AI wel grote impact op onder meer banen van mensen. Ook is er snel AI-moeheid en AI-scepsis ontstaan. De diensten die er zijn, blijken voor veel mensen nog van beperkte toegevoegde waarde.

Web 2.0 leek veelbelovend, maar pas met de komst van de Newsfeed maakte Facebook echt een grote vlucht. Zo is dat nu met AI: er zijn veel experimenten, maar de juiste vormen en toepassingen zijn nog niet gevonden. Het is wachten tot bedrijven of organisaties hebben gevonden op welke manier AI echte problemen van mensen kan oplossen en een interface biedt waar iedereen gemakkelijk toegang tot alle mogelijkheden heeft. Een markt in een race is bovendien altijd in beweging. Zelfs als je succesvol bent, zegt dat lang niet alles. Het is niet makkelijk om te weten of je als bedrijf de Facebook of de Hyves van deze generatie bent.

Dat betekent dat de markt onvermijdelijk zal gaan afkoelen. Generatieve AI werd al van hype een normaal verschijnsel, net zoals Facebook nu al jaren niet meer nieuw voelt en Hyves al jaren is verdwenen. Het wordt vast een onderdeel van werk voor veel mensen en misschien ook van hun leven. Het zal, net als web 2.0, of het internet daarvoor, en computers daarvoor, een grote stap kunnen zijn. Hoe dat er precies uit zal zien, blijft lastig te voorspellen. Ook al worden AI-systemen slimmer dan mensen, zelfs die systemen hebben geen glazen bol om te weten hoe de toekomst eruit zal komen te zien.

Reacties (242)

242
236
92
9
0
119
Wijzig sortering
Bedankt voor dit interessante overzicht op zondagochtend :-)

Ik ben zelf vrij kritisch over het gebruik van AI/LLM/algoritmes. Ik zie zeker enkele voordelen in de wetenschap en bijv. de medische wereld waar computers zaken zoals eiwitten vouwen en medische beelden bekijken beter kunnen. Daar valt dus veel winst te boeken.

Maar ik heb een aantal bezwaren om de AI nu zo veel te gebruiken als het momenteel gepusht wordt door Microsoft, Google en co...

1 - Bij het maken van de LLM's is er ethisch het één en ander fout gelopen. Werk (tekst, beeld, video) van kunstenaars, journalisten, wetenschappers en anderen is vaak zonder toestemming gebruikt.

2 - Verder is er ook een probleem bij de betrouwbaarheid. De antwoorden van de AI worden te vaak met een absolute zekerheid gepresenteerd waardoor ze de onwetende gebruiker op het verkeerde pad zetten. Enkel wanneer je zelf al voldoende kennis hebt over een onderwerp kun je de AI hierop betrappen en vragen om te verbeteren. Dat haalt het nut natuurlijk voor een deel weg, want als ik iets opzoek dan gaat het vaak over onderwerpen waar ik nog niet zo veel over weet.

3 - Webrommel. Het web is de laatste jaren al niet meer in een fantastische staat (de zoekresultaten moeten echt gezeefd worden voor je iets bruikbaars vindt), het gemak waarmee 'content' aan de lopende band kan gegenereerd worden, leidt tot nog meer onzinwebsites die enkel uit zijn op (reclame)kliks.

4 - Ecologisch bewandelt AI zeker ook niet de goede weg. Er worden miljarden aan bronnen gespendeerd aan het ontwikkelen en gebruken van deze modellen. Wetenschappers berkenden bijv. voor GPT4 dat het genereren van één tekstje van 100 woorden iets meer dan een halve liter water kost. Deze bedrijven gebruiken gigantische hoeveelheden (kern)energie waardoor er ook een toename is in het gebruik van fossiele brandstoffen. Als voorlopige kers op de taart berekende de AI sustainability lead van Salesforce enkele weken geleden het energiegebruik van o3 (van OpenAI). 1 taak gebruikt maar liefst 1785 kWh!

Wat mij betreft, mag er even stevig op de rem getrapt worden, moet het onderzoek meer naar de academische wereld gebracht worden en moeten ethische commissies oordelen over het nut van al deze modellen. Wanneer ze een meerwaarde genereren voor de mensen, dan zijn ze welkom, maar te veel van deze modellen zijn nefast voor onze menselijkheid.
Ondertussen is er ook de mogelijkheid om AI met verschillende LLM’s lokaal te draaien en internet-toegang niet nodig is. Hiermee verlaat de informatie je devices niet

https://www.nomic.ai/gpt4all
De kwaliteit van een Mistral 7b is veel slechter dan ChatGPT, waardoor het nut vrij beperkt is.


RE: Webrommel
Freya Holmer heeft recent een video gemaakt die laat zien hoe slecht het er momenteel voorstaat bij bepaalde zoekopdrachten.
Ze zoekt een term op waar wel degelijk diepgaande informatie over te vinden is, maar Google presenteert vooral AI-gegenereerde informercials die halve waarheden presenteren op oppervlakteniveau. In plaats van de documentatie die ze zocht.

Zeer irritant om dat soort dingen te vinden, omdat het vaak even duurt voordat je door hebt dat je onzin aan het lezen bent.

RE: De race moet een keer eindigen
AI bedrijven hebben zoveel geïnvesteerd dat ze nog wel even zullen proberen om het door de strot te drukken. Maar het gerucht gaat dat OpenAI momenteel tegen de limieten van beschikbare data aanloopt.
Als dat klopt zullen ze op een gegeven moment toch de realiteit onder ogen moeten zien.

Wanneer dat gaat gebeuren durf ik niet te zeggen. Als je net 80 miljard heb toegezegt kun je behoorlijk kleppen voor je ogen hebben.
Als je kijkt naar het aantal parameters van de Chinese variant, dan was er nog wel wat ruimte voor groei over, maar uiteindelijk zal het uit een ander vaatje moeten komen.
Bedankt voor het linken van de video. De hoeveelheid webrommel is mij al enige tijd te veel, niet alleen in zoekresultaten.

Ben eigenlijk opzoek naar een methode om significant impact te maken in het filteren van webrommel. Veel van de blogpost websites die Freya in haar video uitpluist zijn tijdverspilling voor iemand die het internet nog probeerd te gebruiken.

Als ik een perfect plaatje mag schetsen zou er een gemeenschap zijn waarin gebruikers websites of specifieke paginas op website markeren als AI webrommel. Dit moet wel een degelijk proces zijn met enige review mogelijkheid, om misbruik te verminderen. Maar wellicht is het handmatig filteren van het web niet meer mogelijk?
Inderdaad niet meer mogelijk helaas. En ook zoekmachines worden steeds minder goed merk ik. Dit is gedreven door hebzucht: Google, de grootste, zet alle resultaten waarvoor betaald wordt steevast bovenaan. Dit kan wel een paar pagina's doorgaan als je pech hebt. Hierna komen dan "echte" resultaten, maar omdat veel phishing- en advertentie-sites volop gebruik maken van priorisering-tooltjes voor zoekmachines, heb je ook aan deze resultaten niet veel. Daarnaast vindt er enorm veel copy-paste plaats van artikelen tussen sites, zodat je 20 keer dezelfde inhoud tegenkomt op verschillende sites. Al met al is het best een drama aan het worden, ja. Veel te veel vervuiling, allemaal gedreven door geld.
idd - voor het vinden van informatie telt het commercieele aspect veel zwaarder en dat geeft een enorme vertekening. En dat ligt niet alleen aan de zoekmachine maar ook aan de aanbieders [van non-informatie] helaas.

We maken grappen over de ontzettende slechte zoekfunctie van Windows - maar die inmiddels is een web-search net zo slecht lijkt het. :|
Bedankt voor de link naar de video, die zet ik op mijn te kijken lijst!
4 - Ecologisch bewandelt AI zeker ook niet de goede weg. Er worden miljarden aan bronnen gespendeerd aan het ontwikkelen en gebruken van deze modellen. Wetenschappers berkenden bijv. voor GPT4 dat het genereren van één tekstje van 100 woorden iets meer dan een halve liter water kost. Deze bedrijven gebruiken gigantische hoeveelheden (kern)energie waardoor er ook een toename is in het gebruik van fossiele brandstoffen. Als voorlopige kers op de taart berekende de AI sustainability lead van Salesforce enkele weken geleden het energiegebruik van o3 (van OpenAI). 1 taak gebruikt maar liefst 1785 kWh!
Dit. Al vanaf het begin toen er statistieken naar buiten kwamen over wat er verstookt moet worden voor AI zette ik mijn vraagtekens bij de duurzaamheid hiervan. De energiehonger van AI moet niet alle verduurzaming die gedaan wordt wegstrepen.

Één van de grootste thema's wereldwijd de laatste jaren is het klimaat, de klimaatcrisis. Hoe kan het dan zo zijn dat er een product gelanceerd wordt die zeer zware energie eisen heeft. Bedrijven hebben toch ook, zonder een klimaatcrisis zelfs, een ecologische en duurzame verantwoordelijkheid en aan overheden de taak om ze daar aan te houden.

Edit: mijn eerdere reactie kon misschien geinterpeteerd worden als dat ik twijfel aan de klimaatcrisis. Dat is niet zo. Vandaar even herschreven om mijn punt duidelijker te maken.

[Reactie gewijzigd door JeroenNietDoen op 5 januari 2025 12:59]

Ja, dit soort AI modellen kunnen aardig wat stroom/water verbruiken. Echter moet je het afwegen tegen het alternatief: arbeid gedaan door mensen die ook een grote impact hebben. Ik durf wel te stellen dat copilot en dergelijke hulpmiddelen een prima (soms zelfs betere) vervanging zijn voor een junior developer wat het mogelijk maakt om dus werk te laten doen wat anders door een mens gedaan had moeten worden.
Huidige AI vervangt maar weinig taken in het algemeen, kijkend naar de gehele economie. En gevallen waarbij het alternatief meer grondstoffen gebruikt zijn er nog minder.

Die junior developer bijvoorbeeld, haalt uiteindelijk misschien 15% van z'n code uit een LLM en de tijdsbesparing is nog flink minder dan dat, richting de nul (senior developers besparen nul tijd). Dit op basis het recente onderzoek van Google, een bedrijf dat zelf groot voorstander is en alsnog moest toegeven dat de winst op de werkvloer summier is.

Die junior developer zou zonder een LLM stukken code gaan opzoeken via bijvoorbeeld GitHub of StackOverflow. Oftewel een zoekopdracht en een minuut surfen op internet, wat een kleinere voetafdruk heeft dan datzelfde stuk code te genereren met bijv. CoPilot. Het zelf opzoeken geeft ook nog eens meer context en commentaren van anderen erbij om de beste keuze te maken. Deze werker zal even lang achter de laptop zitten, thuis of op kantoor, en evenveel eten, dus zijn de grondstoffen die de AI gebruikt puur extra.

Programmeren is het paradepaardje van het "nut van LLM's", en zelfs in dit beroep is de winst erg beperkt.

Er zijn nog enkele beroepen waar de LLM's enig bewezen werk vervangen, zoals SEO-tekstschrijvers en klantenservice. Maar het houdt allemaal nog niet zoveel in in de praktijk, en in het geval van klantenservice gaat de kwaliteit bijna altijd achteruit ten opzichte van menselijke service.

De rest van het gebruik van LLM's voor tekst én afbeeldingen is frivool: het wordt gedaan omdat het kan en misschien vermakelijk of lichtelijk handig is, maar niet noodzakelijk. Dit lijkt mij het grootste deel momenteel, vooral AI die is ingebakken in casual apps en platformen zoals Twitter/X en Facebook. Daar gaan we de wereld niet mee redden, en het kost wel allemaal stroom, water, land en grondstoffen voor de hardware.

Huidige AI is vooral een hype voor het binnenhalen van durfkapitaal; de modellen zijn te dom voor de meeste complexe of cruciale taken. Er zijn nog wat wetenschappelijke toepassingen maar verder zouden we AI beter kunnen doorontwikkelen in plaats van inzetten.
Ik ben het toch niet helemaal met je eens. De mogelijkheid om vragen te stellen over je eigen data of hulp met het schrijven van scriptjes, samenvatten, het veranderen van een opname van een meeting in een presentatie of document - dat zijn best nuttige functies op kantoor. Ook als het niet perfect werkt. Geen revolutie, inderdaad - gewoon een handige tool erbij.
Wanneer je stelt dat juniors 15% code uit een LLM halen en seniors nul tijd besparen, dan ben ik erg benieuwd naar de bron van je onderzoek. Zelf werk ik als lead developer en zowel binnen mijn eigen bedrijven als bij collega's op andere plekken, zie ik wel degelijk zeer veel winst in productiviteit dankzij AI.

Daar zit de winst hem juist bij Seniors en in mindere mate bij Mediors. Dankzij zaken als Copilot worden simpele functies al direct voor je voorgekauwd, hoe beter je code structuur en zaken zoals naamgeving van je variabelen; hoe beter hij ook de ietwat moeilijkere logica voor je uit kan spugen. Hier en daar behoeve zaken nog wat refactoring maar je kan echt zoveel effectiever te werk gaan.

Het refinen van taken, meetings met stakeholders, al die randzaken, die worden niet door AI vervangen. Maar binnen het daadwerkelijke code tikken, kan je wel degelijk de nodige tijd besparen. Doordat je wel goed moet kunnen controleren wat de output is, ligt het nut juist bij Seniors, en daarna Mediors. Juniors zou ik eigenlijk zoveel afraden AI te gebruiken omdat zij niet over de capaciteiten beschikken om de uitgespuugde code te beoordelen.
Helemaal mee eens. Juist als senior geeft een LLM heel veel output die nuttig is of alleen nog wat kleine tweaks nodig heeft. Hij vervangt niet het denkwerk, maar juist het laaghangende fruit wat je anders naar een junior zou uitbesteden. Het gevaar hierin is natuurlijk dat als een senior meer heeft aan een LLM, wie gaat dan de juniors trainen? Zie het zelf ook al vaak gebeuren dat juniors nu alleen maar klakkeloos met een LLM werken en niet zelf leren wat ze aan het doen zijn. Zo gaan ze natuurlijk nooit seniors worden en hebben we over een aantal jaren een nog groter tekort.
Helemaal mee eens. Ligt misschien ook aan het type developer. Als je weet wat je hebben wilt en bent in staat om een prompt te geven die de ai triggert om diep te redeneren dan krijg je doorgaans goede oplossingen.

Fijn ook dat de ai code doorgaans direct werkende code is, geen gekloot met "waarom werkt dit nou niet".. de kleine issues waar je voorheen soms ff op vast liep zijn nu snel opgelost door een ai peer review. Ook zie ik binnen afzienbare tijd eslint vervangen worden door realtime ai code quality analyse. Je komt gewoon niet meer weg met lage kwaliteit code.

Tevens neemt de ai ook taken uit handen door anders eerder zouden blijven liggen zoals het updaten van een readme.md. Ook goed om hier en daar suggestie te kunnen vragen voor een alternatieve oplossing..

Ik zie het voor mijzelf als een 10x multiplier.
Ik hoor dit argument vaak, maar... het houdt geen water. ;) (Dunglish, forgive me)

De gemiddelde ChatGPT query kost 3 flesjes aan water. Je kan een hoop zelf doen op 3 flesjes water. Stroomverbruik per query is me niet bekend, maar dat zal aanzienlijk zijn. Voor de komende release van ChatGPT is het gerucht dat de kosten rond de $1000 per query gaan zijn. Dat is $1000 aan hardware, water, electriciteit, mankracht etc etc. Kan je een hoop boterhammen van eten.

En dat 'reasoning' gaat de antworoden marginaal beter maken (dus nog steeds onbetrouwbaar).

Deze technologie is een race naar de bodem.
Euh ja, je hebt wellicht minder mensen nodig, maar om nou als klimaatdoel neer te zetten dat je het aantal mensen gaat minderen is toch wat dubieus. De klimaatdoelen van de bedrijven (o.a. Google, Meta, Microsoft) die dik inzetten op AI zijn en worden al aangepast en niet op de goede manier.
Dat kan en het boeit verder niemand want uiteindelijk tellen de resultaten op de beurs.
Mja aan de ene kant heb je helemaal gelijk en is het idioot maar de AI levert tenminste nog wat op (niet altijd maar vaak). Terwijl er nog zoveel “low hanging fruit” is op andere vlakken. Ben net in de VS en als je in een café een koekje eet en een coffee drinkt krijg je dat alles met een dot plastiek - vraag je om een “echt” bord en beker dan hebben ze dat niet eens.

Zo stookt men in veel landen nog hout, zit Duitsland nog op kolen en zit de helft van wat je in de supermarkt koopt ook in zinloos plastic. Koop wat knoflook - je hebt volgens mij nu meer water en energieverbruik aan verpakking dan eten.

Dat is allemaal geen reden om niets te doen aan overbodig ai gebruik, maar ik wil het wel even relativeren. Een uurtje TikTok gebruikt ook veel energie… tja, is dat nodig? Een boek lezen is gezonder en beter voor het milieu…


Gaan we alsnog tik tokken toch?
Yep, je moet alleen niet vergeten dat laaghangend fruit volledig afhankelijk is van je perspectief. Plastic servies (wegwerp) scheelt een hoop vaat en levert een berg afval op. Als jouw uitgangspunt is dat het zo goedkoop en snel mogelijk moet, dan is plastic wegwerp ideaal.
Klimaatdoelen zijn door de overheid opgelegd. Er zijn bar weinig bedrijven die uit eigen beweging zouden inzetten op klimaat en milieu. Zodra klimaat echt geld gaat kosten, dan komen de economische doelen ook weer om de hoek kijken en is veel van de wetgeving niet meer nodig.
CO2 is te goedkoop, plastic is te goedkoop etc. Als CO2 echt geld gaat kosten dan worden de alternatieven aantrekkelijker. Als niet afbreekbaar plastic echt duur gaat worden, dan is het snel afgelopen met legio problemen.
Bedrijven en mensen verstaan alleen maar geld, dus dat is waar mee gestuurd kan worden.

En AI... de mogelijkheden zijn leuk maar op dit moment niet echt fantastisch. Er komen echter weer nieuwe supercomputers aan die heel wat gaan betekenen op efficiëntie en dus op de benodigde bronnen en dus uitstoot.

Duitsland heeft de kerncentrales gesloten en gokte op Russisch aardgas. Foutje! Niet dat wij nou zo'n fantastisch back-up plan hebben, maar toch.
AI kan tenminste nog gebruikt worden om klimaatverandering tegen te gaan. Ander 'laaghangend fruit' zoals crypto heeft daarintegen helemaal geen maatschappelijk nut maar wel een enorme impact op het klimaat.
Ook maatschappelijk nut is relatief en subjectief. Als het gaat over ons maatschappelijk nut dan zijn de meest gruwelijke zaken uitgehaald. Los daarvan dient crypto ook een zeker maatschappelijk nut. Een nut wat echter totaal wordt overschaduwd door zelfverrijking en belastingontduiking, maar goed. Dankzij crypto kan ik een transactie direct overmaken naar een vriend van mij, zonder dat flinke delen van het bedrag verdwijnen in de krochten van het internationaal bankwezen.
De corruptie in dat bankwezen en overheden kost miljarden op jaarbasis. Dankzij crypto kan het geld eindelijk komen waar we het willen hebben zonder dat we één of ander fout regiem ondersteunen.
Sorry maar AI is op dit moment echt niet in staat om mensen volledig te vervangen, ook niet voor een junior. Daar is AI gewoon nog niet goed genoeg voor.

Code kloppen blijft daarbij maar een gedeelte van het werk wat je doet als dev maar zelfs als je specifiek daar naar kijkt zie ik het geen mensen volledig vervangen.
Ik zou geen AI inzetten om volledig autonoom functies te gaan bouwen nee. En het is fijn om een extra paar ogen te hebben die misschien met een andere blik naar zaken kijken.

Kijk ik echter puur naar productiviteit, dan zie ik eigenlijk al jarenlang dat teams effectief meer werk opleveren zonder junior in het team; dan in precies dezelfde opstelling mét een junior erbij. Een junior vereist de nodige uren per week aan uitleg en sturing, evenals gedegen code reviews om die junior te helpen groeien en je feature toch netjes opgeleverd te krijgen. Dit zijn allemaal uren waarin bijvoorbeeld een senior zelf geen code kan schrijven.

Een junior erbij zorgt simpelweg voor minder opgeleverd werk. AI als Copilot, Cursor of gewoon een willekeurige query aan Claude; levert een team wel degelijk een boost in productiviteit op. De ironie is een beetje dat juniors juist degene zijn die overbodig zijn; maar als je geen juniors meer opleidt dan heb je op termijn ook geen mediors/seniors meer die uiteindelijk de zaken moeten gaan runnen. Overigens zie ik ook veel partijen waar men terughoudend is met het opleiden van juniors, omdat die snel verleid kunnen worden om ergens anders aan de bak gaan. En dan zijn ze weg zonder dat je de vruchten van je investering hebt kunnen plukken..
Het is dan ook misschien de taak van opleidingen om geen Junior programmeurs af te leveren. Door middel van stages en het effectief gebruiken van ai om als senior peer reviewer met de Junior mee te kijken kom je best een eind. Het vergt echter wel een nieuwe manier van werken met een andere mindset.

Dit geldt overigens niet alleen voor development, maar zo ongeveer voor alle vakgebieden.. Legal, Finance etc.. de ai kijkt mee en helpt je dingen sneller en beter te doen mits je de feedback op de juiste manier weet te integreren in het uitvoerende proces.
Ja, dat is ook onze ervaring. Als kleiner bedrijf kan je beter medior/senior aannemen, dat rendeert een stuk beter dan juniors.
Dat is ook maar de vraag natuurlijk. En uiteindelijk wat ga je die juniors laten doen, als ze geen ervaring meer opdoen worden ze nooit senior.
Daarnaast blijft het hit en mis met die modellen, dus ik vraag me af of het netto nou echt sneller is over linie
Mijn ervaring als senior dev is dat copilot in ieder geval *meestal* sneller en beter resultaat geeft dan een junior dev. Helemaal met je eens dat we een groot probleem creëeren als we juniors niet (goed) opleiden. Helaas kiezen de meeste bedrijven nog altijd voor korte termijn dus nu met LLMs is de keuze om maar geen juniors aan te nemen nog aantrekkelijker geworden.
Hoe kan het dan zo zijn dat er een product gelanceerd wordt die zeer zware energie eisen heeft.
Energie is simpelweg te goedkoop. Als het duurder was, zouden de AI-systemen wel zuiniger worden.

In ons huidige kapitalistische systeem is er maar één taboe dat doorbroken moet worden om de klimaatcrisis op te lossen: maak fossiele energie geleidelijk véél duurder door er steeds meer accijnzen op te heffen. Dan ga je elke industrie automatisch naar de duurzame energiebronnen zien grijpen. Met dat geld kunnen we meteen ook investeren in de sociale maatregelen die nodig zijn voor zij die niet zo snel kunnen omschakelen.
Ik zette het op plaats 4 in het overzicht, niet omdat ik het het minst belangrijk vind, maar eerder om het krachtigste argument als laatste mee te geven. Ik maak me ook zorgen over het klimaat (niet per se op korte termijn, maar wel over de wereldwijde verschuivingen die dit gaat veroorzaken de komende decennia).
Ik ben het met je eens dat bedrijven een verantwoordelijkheid hebben die ze momenteel niet nakomen. De focus lijkt steeds op de financiële verantwoordelijkheid t.o.v. de aandeelhouders te liggen, maar bedrijven hebben ook een impact op milieu, klimaat & maatschappij. Daar mag gerust wat meer aandacht aan gegeven worden.
Grappig dat jullie draaiboek altijd is "milieuvervuiling door windmolens is een ramp", maar andere vervuiling niets uitmaakt. En ineens maakt zelfs Trump zich zorgen over de arme vogeltjes.
Ik weet niet wie 'jullie' zijn, en wat Trump hier mee te maken heeft, maar sinds de keuringsdienst van waarde dit heeft uitgezonden : https://kro-ncrv.nl/persb...t-van-waarde-microplastic , ben ik me er in gaan verdiepen en er achter gekomen hoe erg het wel niet is. Over windturbines en milieu : https://www.rivm.nl/windenergie/windturbines-milieu .
En zo kan ik wel een hele lijst maken, maar ik wordt hier gewoon moe van . Het is vechten tegen de bierkaai, heel de wereld aan informatie aan iedereens vingers en het enige wat de kuddedieren doen is blaten en volgen. De ex directeur van Greenpeace bijvoorbeeld, komt in de 'problemen' omdat hij vóór kernenergie is. "Kijk naar de feiten" zegt hij, en presenteert deze dan ook . Maar 'de mensen ' van Greenpeace zitten zo vast in hun denken, ze stappen liever naar een advocaat om hem de mond te snoeren.
"jullie" zijn de mensen de verhalen van olie-industrie napraten.
Één van de standaard verhalen is altijd dat alternatief xyz niet perfect is en dus niet gebruikt kan worden. Bijvoorbeeld omdat zonnecellen afval veroorzaken, of omdat windmolens vogeltjes doodmaken. Dezelfde mensen maken zich nooit zorgen over het afval van de olie-industrie of het feit dat huiskatten miljoenen vogeltjes doden.

Je vergelijking met kernenergie is erg goed. Daar zijn het juist de milieuactivisten die hetzelfde trucje toepassen: het radioactieve afval is vervelend, dus is kernenergie onbruikbaar. In Duitsland worden daardoor veel meer kolen verbrandt dan anders het geval zou zijn, maar die afweging "wat is erger" werd niet gemaakt.

Een rationelere methode zou zijn om alle voor- en nadelen af te wegen en de oplossing te kiezen die het minst slecht is.

[Reactie gewijzigd door _Pussycat_ op 7 januari 2025 00:37]

Je roept maar onderbouwt niets. Typisch.
En zo kan ik nog wel even doorgaan.
Doe maar gewoon niet. ;)
moet het onderzoek meer naar de academische wereld gebracht worden
Hier zit een groot probleem, want de huidige vorm van AI laat pas zien of er verbetering is wanneer het klaar is met zijn enorm lange, dure, energieintensieve trainingsprocess. Academici hebben gewoon geen toegang tot de resources die nodig zijn om uberhaupt een kleine LLM te trainen en testen voor snelle iteratie. Het enige wat ze kunnen doen is verbeteringen voorstellen, heel kleinschalig iets proberen en er theoretisch tegenaan kijken (heeft de verandering een verwacht effect), maar het is bijna niet te doorzien wat zo'n verbetering nou eigenlijk gaat betekenen als je het een rondje OpenAI LLM training laat doen van 3 maanden.
Als je nu teruggaat naar academici dan gaat alles 100x zo lang duren en dat kunnen we niet veroorloven in het huidige geopolitieke milieu.
Dat kunnen die wetenschappers prima via Google Ai studio en VortexAi, en ook IBM verschaft daarvoor in betaalbare middelen.

De meeste effort gaat in het leren gebruiken van het gereedschap net zoals dat bij hun huidige middelen het geval is.
Alle dingen die je noemt zijn gebouwd op Gemini, maar ik heb het over het ontwerp en development van modellen zoals gemini zelf, niet wat je er verder op kan bouwen. Het betreft de onderliggende architectuur en systemen die google je niet laat aanraken, laat staan volledig zal vrijgeven. Die modellen zijn pre-trained. Waar we geinteresseerd in zijn op academisch vak is het trainingsprocess en de architectuur van de LLM, beide zijn niet binnen bereik van 99% van universiteiten.
Ik kan daar trainen met eigen data, zowel bij IBM als bij Google, maar waarom zou je afhankelijk van een taak een niet reeds aanwezig model van VortexAI gebruiken?

Dat je niet aan de onderliggende architectuur kan komen is logisch, dan moet je zelf aan de slag en dat is zoals bij zovelen prima te doen. Alle gereedschap is als open source beschikbaar.
Ja voor gebruik is dat best maar de discussie gun over of de academische wereld onderzoek kan doen en tech vooruit kan pushen. En daarvoor moet je die basis training kunnen doen - lastige en vooral erg dure zaak.
Niet bij google, daar kom je gratis al erg ver. Wetenschappers zijn behoorlijk tech minded en velen gebruiken Ai al bij hun onderzoek om data 90-95% sneller te kunnen verwerken. De wetenschappers achter Ai zijn mensen waarvan er tussen tech bedrijven en universiteiten heen en weer hobbelen. Beiden sluiten elkaar niet uit.
Het sluit elkaar niet uit, maar het trainen van een LLM zoals LLAMA 3.1 kost in de richting van 400 miljoen dollar. Fijn dat Facebook dat weg geeft, fijn dat Google zulke modellen weg geeft en zo zijn er meer. Maar als ze dat niet deden zou het niet makkelijk zijn voor universiteiten om dat te doen. Het kan wel - CERN kost ook een paar centen - maar het zou flink lastig zijn zulke bedragen bij elkaar te sprokkelen.
Het is een en/en verhaal, en ook dat gaat al beter, het nog grotere Deepseek v3 is getraind om meer dan 600 miljoen parameters voor minder dan 6 miljoen euro, wat betekend dat als een systeem getraind moet worden met specifieke data het nog veel minder gaat kosten.

Met discriminative Ai wat in de wetenschap maar bijvoorbeeld ook de zorg vaker wordt ingezet is dit al niet eens bijzonder meer om een LLM al dan niet continu met data te trainen.
Zeker, DeepSeek is echt een grote revolutie. Nu hopen dat het geen gelul is maar dat ze dit echt konden - en dat anderen het dus kunnen reproduceren ;-)

we gaan het zien, de komende weken/maanden.
Ik snap je argument en volg het gedeeltelijk. Wat vertraging in het proces lijkt me belangrijk om het onderzoek grondig te kunnen uitvoeren, maar doordat de race zich niet enkel tussen bedrijven afspeelt, maar ook tussen landen, lijkt de kans inderdaad erg klein dat dit zal gebeuren.

Wereldwijde samenwerking is essentieel, maar is helaas nog een utopie.

Een gelijkaardig verhaal zie je bijv. bij CRISPR. Een interessante wetenschappelijke doorbraak, maar in bijv. China werden internationale afspraken i.v.m. menselijke testen genegeerd en werden DNA-aanpassingen gemaakt op embryo's (die ondertussen peuters zijn).
Geopolitiek zijn we onvoldoende in staat om echt samen te werken.
De laatste maanden heb ik best vaak ChatGPT getest op het niveau van een simpele gebruiker. Aan jouw derde punt wil ik wat toevoegen: mijn ervaring is dat het juist een uitstekende tool is om je weg te vinden in webrommel. Je moet dan wel de opdracht geven om links naar de bron toe te voegen aan het antwoord. Je kunt ook de opdracht meegeven om bepaalde onbetrouwbare uit te sluiten. Dus je moet wat tijd stoppen in het stellen van de juiste specifieke vraag. ChatGPT kan veel sneller surfen dan een mens en is daardoor in staat om veel meer informatie te ordenen. De gebruiker moet dan wel bereid zijn om het resultaat even te checken natuurlijk.

Ik weet eigenlijk niet of ChatGPT de filters van Google kan bijsturen of in ieder geval transparant te maken welke filters gebruikt worden. Dat is een volgend klusje om eens uit te zoeken.

edit: taalvautje

[Reactie gewijzigd door deadmeatsubs op 5 januari 2025 11:19]

Oftewel een verrijkte zoekmachine en geen AI ;)
Ja, nu je het zo zegt. Ik vertrouw nog niet op ChatGPT anders dan als een zoekhulpmiddel en een taalhulpmiddel.
Dat klopt wel, ongeveer.

Ik werk oa met mindpal.space. daarin creeër ik al dan niet met Ai agents voor specifieke doelen en vraag je om de output op een specifieke manier te geven als dat gewenst is. Zo kan ik bijvoorbeeld een beursanalist of arts creëren en vragen stellen waarop langs de voorkant van Ai geen eens antwoord op gegeven mag worden. Een IT consultant of anders kan prima antwoorden geven op goed gestelde vragen. Enige kennis van prompt engineering is wel key hier. Als ik aan collegas vraag om de agents te testen die ik via internet beschikbaar stel, dan zie ik dat het stellen van goede vragen het grootste probleem is.

De kwaliteit van de antwoorden is op een hoog nivo en op de achtergrond kan ik aangeven of dat via Claude, openai, Gemini of anders moet gebeuren.
Ik heb de uitleg van mindpal bekeken maar zie weinig verschil met de gpt's van chatgpt of gems van gemini. Alleen het aan elkaar rijgen van "agents" is vernieuwend zo op het eerste gezicht. Of zie ik iets over het hoofd?
Er zijn zeker overeenkomsten, het aan elkaar rijgen van agents waarbij de volgende met de output van de vorige aan de slag gaat, of dat elke agent een deel van een analyse doet zoals de IELT writing grader hoort wel bij hun. Je kan zelf een workflow bouwen, of een opdracht geven om voor een taak een workflow in te richten en hun Ai maakt dat dan voor je. Je kan dat dan later finetunen. Ze hebben er veel op de plank liggen en je kunt een workflow ook verkopen. Een agent of workflow kun je dan vervolgens achter een chatbot hangen waarmee je die op het internet of je intranet publiceert.

Ik werk nog tegen de oude prijs en dat blijft ook zo, maar inmiddels is het met 40$/maand redelijk duur.
Ik ben het wel met je eens, en ik heb ook al een aantal keren het voordeel ervan gezien nadat een AI meerdere bronnen netjes samenvatte en een lijstje met bronnen aanreikte.

De AI's worden echter nogal ongecontroleerd losgelaten op de wereld en educatie loopt achterop of blijft uit. Velen gebruiken het als een zoekmachine en lezen niet verder. Ik zie dagelijks studenten en collega's ermee werken en de manieren waarop zijn echt tenenkrommend. Zo wordt er toch erg veel energie verspild en fouten gemaakt. Maar misschien dat dit nog betert eens er beter getraind wordt (de mensen dan ;-)). Of misschien zouden de AI's ook sneller moeten kunnen doorhebben dat voor sommige vragen 1 link naar een encyclopedie volstaat en dat er geen LLM nodig is.
Ik ben het met een aantal aspecten eens en een aantal aspecten oneens.
Punt 1 absoluut mee eens.
Punt 2 is absoluut een gebruikersfout. Als jij een LLM blind vertrouwd hoor je er niet mee te werken. Net zoals elk goed bedrijf een quality control afdeling heeft. Bijvoorbeeld een LLM zal nooit 100% betrouwbaar kunnen worden. Dat is gewoonweg niet mogelijk. Dus blind vertrouwen op een LLM is een gebruikersfout.
En als je door af en toe onbetrouwbare informatie een LLM minder nuttig vindt, dan heb je simpelweg onvoldoende ervaring met LLM's. Sowieso probeer je dan een LLM te gebruiken waarvoor het niet geschikt is. Dat is alsof je de stagiair de accountants verklaring laat opstellen.
Punt 3, web-rommel, de laatste jaren? Nou volgens mij heeft het web altijd vol rommel gestaan, tenminste zo lang ik er op kom, en dat is ongeveer vanaf begin jaren 90. Wat heeft dat met AI/LLM enzo te maken. Ja voor luie mensen is het een probleem, maar het is de harde realiteit waar jet niets aan kan doen.
Punt 4 is ontzettend kortzichtig, want mensen verbruiken ook vanalles, terwijl ze werken. Wellicht gebruikt een LLM nu nog even meer energie dan een mens bij de zelfde taak, maar over 10 jaar zal een LLM (zuinigere chips en efficiëntere modellen) ontzettend veel zuiniger de zelfde taken uitvoeren. Dus dat is nu nog maar binnenkort niet meer.
Nog even terugkoppelen over punt 3. Ik heb de indruk dat de onzinwebsites (die er inderdaad altijd wel al waren) als paddestoelen uit de grond schieten, omdat het zo makkelijk is geworden om over heel wat onderwerpen op het eerste zicht goed uitziende teksten te genereren. Inhoudelijk schieten ze enorm te kort.
De topresultaten bij zoekmachines zijn nu nog vervuilder en het is nog meer het kaf van het koren scheiden.

En ik hoop dat je gelijk hebt over punt 4. Momenteel lijkt de groei en verspilling echter nog toe te nemen. In het beste scenario is dit echter de moeite waard en kunnen we dan erna decennialang de vruchten ervan plukken.
1) ik heb toevallig architectuur gestudeerd, je spendeert heel veel tijd met het bestuderen van historische ontwerpen, tekeningen, kunst in de brede zin. Ik heb dan ook maanden buiten getekend, vaak op basis van wat je voorheen gezien hebt qua stijl. Soms was het een prijzig wanneer een peof langs liep dat je stijl op een bekende kunstenaar leek. Dit is niets nieuws, muziekanten, schrijvers, artiesten baseren hun kennis en kunde maar wat vaak op wat ze zelf prefereren.

Ik heb dan ook moeite met hoe sommige partijen klagen, immers als mens zijnde doen wij niets anders we voorduren voort op wat we weten.

Modellen maken doen dit ook, ze borduren verder wat ze opgeslurpt hebben.

4) wat we zien is een barrier of entry. Waar grote trading huizen miljarden pompen in hard en software voor HFT, is AI precies hetzelfde. Wil jij straks meedoen moet je in staat zijn miljarden, zo niet honderden miljarden op tafel te leggen. First entry is dan ook gigantisch belangrijk zelfs al weten we niet of dit ooit zal renderen.
Gebouwen staan in de openbare ruimte. Het web is minder een openbare ruimte en meer een museum waar fotografie niet standaard is toegestaan.
Ik heb dan ook moeite met hoe sommige partijen klagen, immers als mens zijnde doen wij niets anders we voorduren voort op wat we weten.
Dat is zeker waar - maar het punt is dat als dit praktisch 1 op 1 wordt overgenomen en(!) dit vervolgens winst/omzet oplevert voor een tussenpartij, dan is dit (terecht ook wel) aan banden gelegd.
Bedankt voor je uitgebreide en doordachte reactie. Je raakt veel belangrijke punten aan, en ik kan niet anders dan erkennen dat er ethische en ecologische uitdagingen zijn die meer aandacht verdienen. Toch zie ik het wat genuanceerder en wil ik een aantal kanttekeningen plaatsen bij de bezwaren die je noemt.

1. Gebruik van werk zonder toestemming:
Je hebt gelijk dat hier ethische problemen spelen, maar tegelijkertijd heeft AI juist geholpen om kennis en creativiteit toegankelijker te maken. Denk bijvoorbeeld aan wetenschappelijke papers die nu door AI beter doorzocht en begrepen kunnen worden, wat kleine onderzoekers kansen geeft om mee te spelen op een wereldwijd niveau. Moeten we niet oppassen dat we vooruitgang niet blokkeren door te streng te zijn in de herkomstdiscussie? Kunstenaars lenen zelf ook al eeuwen van elkaar, en misschien kan AI datzelfde doen op een manier die de mensheid als geheel vooruithelpt.


2. Betrouwbaarheid van antwoorden:
Het klopt dat AI soms antwoorden geeft die absoluut lijken, terwijl ze dat niet zijn. Maar is dat niet iets wat tijd en gewenning kunnen oplossen? Google en Wikipedia waren in hun beginjaren ook niet perfect en leidden soms tot verkeerde interpretaties. De oplossing ligt misschien eerder in educatie: leren hoe je AI kunt gebruiken als hulpmiddel en niet als autoriteit. Ik merk persoonlijk dat het me dwingt om kritischer te denken en vragen te blijven stellen – een vaardigheid die hoe dan ook waardevol is.


3. Webrommel:
Dit is een punt waar ik deels met je meega. Maar is de kern van het probleem echt AI? Voor elke AI die webrommel maakt, zijn er gelukkig ook AI-tools die helpen om juist orde in de chaos te scheppen. Denk aan slimme zoekfilters of modellen die desinformatie kunnen identificeren. Misschien hebben we niet minder AI nodig, maar juist betere en verantwoordelijker toegepaste AI.


4. Ecologie:
Het ecologische argument raakt me, want het is een zorg die we niet kunnen negeren. Tegelijkertijd denk ik dat technologische vooruitgang vaak inefficiënt begint maar zich op termijn juist bewijst. AI kan bijvoorbeeld enorme energiebesparingen mogelijk maken in andere sectoren, zoals logistiek of medische diagnostiek. Misschien is het een kwestie van balans: niet alles wat nu energie verbruikt is automatisch slecht als het op lange termijn grotere voordelen oplevert.


Ik snap je oproep om even op de rem te trappen, maar vraag me af of dat realistisch is. Technologie stopt nooit echt met ontwikkelen, en een te strikte regulering in de westerse wereld kan ons achterop laten raken tegenover landen die minder scrupules hebben. Misschien is het belangrijker om de discussie open te houden en juist in te zetten op slimme, ethisch verantwoorde toepassingen.

Wat denk jij? Is er misschien een middenweg die we over het hoofd zien?
Ad 1: het probleem is niet dat AI nuttig is [als tool / om te zoeken / om te helpen] maar dat bepaalde partijen voornamelijk gaan profiteren van het harde werk van anderen (en die anderen zien daar niets van terug...).

Ad 2: iets vinden wat lijkt op wat je zoekt is anders dan roepen "Ik heb het gevonden".... Dit is geen AI maar een uiterst geavanceerde zoekmachine die ook nog eens corrert klinkende combinaties van verschillende antwoorden maakt.

Ad 3: Hoeveel non-informatie bevat het web nu t.o.v. toen het begon? Ik denk dat dit percentage is toegenomen helaas.
Ad 1: iets genuanceerder; tot voor kort onbekende ontwikkelaars en onderzoekers binnen organisaties als OpenAI zien nu hun werk erkend en beloond. Zij profiteren professioneel en financieel van de waarde die deze technologie creëert.

Als het gaat om de trainingsdata: is het eerlijk om te stellen dat alleen de data-leveranciers benadeeld worden? Kijk bijvoorbeeld naar de Nachtwacht van Rembrandt. De Schouten die hij schilderde hebben niets ontvangen van de immense waarde die dit kunstwerk nu vertegenwoordigt. Toch erkennen we dat Rembrandt iets nieuws heeft gemaakt op basis van hun bijdragen. Op dezelfde manier heeft AI, zoals ChatGPT, iets gecreëerd dat verder gaat dan de som van de trainingsdata. De echte vraag lijkt: hoe vinden we een balans tussen erkenning voor data-producenten en ruimte voor innovatie?

Ad 2: Je hebt gelijk dat AI deels een geavanceerde zoekmachine is, maar wat het onderscheidt, is de interactie en adaptiviteit. Waar een traditionele zoekmachine simpelweg resultaten aanbiedt, kan AI wedervragen stellen, context begrijpen en gebruikers uitdagen verder te denken. Het is niet perfect, maar AI kan een rol spelen in het trainen van kritisch denken, juist door gebruikers te prikkelen en aan te moedigen om dieper te graven. Misschien wordt het hiermee minder een kwestie van “ik heb het gevonden” en meer een proces van samen leren en ontdekken.

Ad 3: Dat het web steeds meer non-informatie bevat, is ontegenzeggelijk waar. Maar is dat niet onvermijdelijk met de groei van digitale platforms? Het probleem ligt misschien minder bij de hoeveelheid content en meer bij hoe we leren filteren. Hier kan AI juist van waarde zijn: door relevantie en betrouwbaarheid te prioriteren in plaats van simpelweg alles aan te bieden. Misschien is het zelfs een idee om AI in te zetten om het web te prunen: duplicaties, irrelevante content en verouderde informatie verwijderen, zodat alleen de essentie overblijft. Dit zou niet alleen de kwaliteit van informatie verbeteren, maar ook bijdragen aan een efficiëntere en schonere digitale omgeving!
Ad 1: de personen op de Nachtwacht hebben toch maar een beperkte effort geleverd? En dat is net zoiets als acteurs in een film. Die leveren hun tijd (en 'image') en krijgen daarvoor betaald. Maar het copyright van de film ligt toch echt bij de producent/filmmaatschappij.
Dus het is Rembrandt wiens werk door de AI wordt gebruikt - niet het werk van de mensen die worden afgebeeld. Praktisch is het ook; want dat lost het probleem op met het afbeelden van objecten. Niet het object heeft 'moeite' gedaan. Natuurlijk komt dan portretrecht weer op de hoek kijken maar dat valt dan ook meer in de privacy hoek. Objecten hebben dat niet; personen wel.
Dus andersmans werk (deel) kopieren zonder toestemming of vergoeding - wat een AI dus doet, is niet gewenst/gepast. Zelfs als de AI dit gebruikt om te combineren.

Ad 2: natuurlijk is het geavanceerder maar het blijft een zoekmachine. Het bedenkt niets. Met een zoekmachine zou je eigenlijk dezelfde antwoorden moeten kunnen vinden.
De AI stelt eigenlijk geen vragen maar stelt filters voor; iets wat minder geavanceerde zoekmachines ook wel kunnen.
Ik ben juist bang dat deze AI helemaal niet prikkelt om dieper te graven - juist omdat deze dat al heeft gedaan. Het geeft tenslotte minder antwoorden dan een simpele zoekmachine.

Ad 3: duplicate informatie is niet fout; dat kan juist helpen bij de bevestiging. Veroudere informatie is een moeilijk concept. Oude informatie is helemaal niet fout of slecht. Achterhaald kan een probleem zijn maar wie bepaalt dat?
De kwaliteit van informatie verbeteren is een wens maar is typisch juist iets wat de AI niet kan. Want dubbelzinnigheid is juist iets wat deze niet 'begrijpt'.
Bedankt voor de interessante tegenargumenten. Ik ben eerder geneigd van voorzichtig te zijn en wat tegengewicht te bieden aan de huidige hype in de media/bij bedrijven. Jouw visie is rooskleuriger en ik hoop dat je gelijk krijgt, maar ik vrees er wat voor ;-)

1 - Je hebt een goed voorbeeld, het hangt inderdaad af vanuit welke invalshoek je kijkt. Tegelijkertijd kun je je ernstig vragen stellen over het verdienmodel waarbij een AI-bedrijf profiteert van het werk van anderen. Maar het klopt dat het op een aantal gebieden informatie wel toegankelijker kan maken.

2 - Volg ik ook, maar ik weet niet of de gemiddelde gebruiker hiertoe in staat is. Net zomin als er veel gebruikers nog steeds niet echt vlot kunnen omgaan met 'klassieke' zoekmachine. Het onderwijs kan hierin zeker ondersteunen en ik vermoed dat de meeste mensen met een onderzoekend brein er wel gaan leren mee omgaan, over de anderen maak ik me wel wat zorgen. De digitale kloof zal nog groter worden.

3 - Verantwoordelijk gebruik (en controle erop) lijken me inderdaad essentieel te zijn. Momenteel kun je het nog vergelijken met het Wilde Westen en doet iedereen maar wat.

4 - Ik hoop het met je mee ;-)
Ik snap je zorg over de digitale kloof, maar ik zie AI juist als een kans om mensen actiever te betrekken bij het kritisch denkproces. AI is namelijk "adaptief" van aard. Het kan inspelen op het niveau van de gebruiker en die, door interactie, uitdagen om verder te denken.

Stel dat iemand een vraag stelt die gebaseerd is op een foutieve aanname – een goed ontworpen AI kan dat oppikken en wedervragen stellen: "Wat bedoel je precies met...?" of "Hoe ben je tot deze conclusie gekomen?" Hierdoor wordt de gebruiker subtiel geprikkeld om dieper over het onderwerp na te denken. Dit maakt AI niet alleen een antwoordmachine, maar ook een leerpartner.

Bovendien kunnen AI-systemen op termijn patronen in interacties herkennen en de begeleiding afstemmen op de individuele gebruiker. Een beginner krijgt bijvoorbeeld meer basisinformatie en aanmoediging, terwijl iemand met meer voorkennis dieper in de materie wordt getrokken. Het is een soort gepersonaliseerd leren dat traditionele zoekmachines simpelweg niet kunnen bieden.

Ik ben het wel met je eens dat dit niet vanzelf gaat. Er ligt een verantwoordelijkheid bij de ontwerpers van AI om juist die interactieve en stimulerende eigenschappen te versterken. En, zoals je zegt, onderwijs speelt een sleutelrol. Als gebruikers leren hoe ze de juiste vragen kunnen stellen en open blijven voor kritiek, denk ik dat AI zelfs een krachtig hulpmiddel kan zijn om de digitale kloof te verkleinen in plaats van te vergroten.

Wat denk jij? Zou een AI die meer 'socratische' methoden toepast (prikkelen, vragen stellen, uitdagen) die zorgen deels kunnen wegnemen?
@Aegir81 noemt precies het probleem:
een AI-bedrijf profiteert van het werk van anderen
Precies hetzelfde als Google (-seach) die profiteert (dankzij al die ellendige reclame) van andermans werk. En we hebben inmiddels gezien dat we dit niet moeten willen. Ook al is het handig dat alles doorzocht kan worden. Maar als de enige/voornaamste profiteur, niet de maker/schrijver/bedenker is, maar enkel de 'vinder', dan gaat het dus mis. Dan stopt men met maken/bedenken/schrijven....
een goed ontworpen AI kan dat oppikken en wedervragen stellen
Ja....maar dat is hetzelfde als zeggen: de zoekmachine vindt geen bevestiging van jouw aanname....
Wat denk jij? Zou een AI die meer 'socratische' methoden toepast (prikkelen, vragen stellen, uitdagen) die zorgen deels kunnen wegnemen?
Dat is geen functie van deze AI - dit is geen leermodule. Jij lijkt sterk te neigen naar 'AI' te zien als een opzichzelf staand fenomeen. Zover zijn we nog niet denk ik. Nu is het een tool en geen entiteit. En tools moeten doen wat een gebruiker nodig acht.
Je redevoering is goed opgebouwd en raakt een aantal belangrijke en actuele punten over de ontwikkeling en het gebruik van AI en LLM’s. De zorgen die je aanstipt worden breed gedeeld binnen verschillende sectoren, van ethiek tot duurzaamheid. Ik zal je feedback geven op structuur, argumentatie en overtuigingskracht.

Sterke punten:
1. Duidelijke structuur: Je argumenten zijn logisch opgebouwd en genummerd. Dit maakt je redevoering overzichtelijk en makkelijk te volgen. Elk punt heeft zijn eigen focus en wordt voldoende toegelicht.
2. Relevantie en actualiteit: De onderwerpen die je aansnijdt (ethische bezwaren, betrouwbaarheid, contentinflatie, en ecologie) zijn uiterst relevant en vormen kernproblemen in het huidige AI-landschap. Je gebruikt concrete voorbeelden, zoals de waterconsumptie van GPT-4, wat je betoog kracht geeft.
3. Kritische houding: Je toont een goed inzicht in de risico’s en uitdagingen van AI. Dit straalt onafhankelijk denken uit en maakt duidelijk dat je genuanceerd naar het onderwerp kijkt.
4. Constructieve afsluiting: In plaats van enkel te wijzen op de problemen, stel je een oplossing voor: meer academisch onderzoek en ethische commissies. Dit maakt je redevoering proactief en toekomstgericht.

Verbeterpunten en suggesties:
1. Taalgebruik en stijl:
• Je zou de toon nog iets formeler kunnen maken, afhankelijk van je publiek. Woorden als “rommel” en “kers op de taart” maken het informeler. Overweeg termen als “overload van irrelevante content” of “excessief energiegebruik” voor een meer academische toon.
• Zinnen zoals “wat mij betreft, mag er stevig op de rem getrapt worden” zijn krachtig, maar klinken als een persoonlijke opinie. Door dit te herformuleren naar “Er is dringend behoefte aan een heroverweging van het huidige tempo van AI-ontwikkeling” wordt het neutraler en objectiever.
2. Onderbouwing van punt 1 (ethiek):
• Je maakt een belangrijk punt over auteursrechten en het gebruik van werk zonder toestemming. Dit is echter een breed onderwerp waar je dieper op kunt ingaan. Misschien kun je kort verwijzen naar juridische geschillen, zoals die van kunstenaars tegen AI-bedrijven, om je punt te versterken.
3. Punt 2 (betrouwbaarheid van AI):
• Overweeg om hier aan te halen dat bedrijven zoals OpenAI zelf ook waarschuwen voor hallucinerende antwoorden. Het toevoegen van een referentie of citaat van een expert kan je standpunt onderbouwen.
4. Punt 4 (ecologie):
• Je noemt indrukwekkende cijfers over energie- en waterverbruik. Overweeg hierbij kort aan te stippen dat deze cijfers soms context nodig hebben. Bijvoorbeeld: hoewel de impact hoog is, wordt AI ook gebruikt voor milieuprojecten, wat een dubbelzijdig effect heeft. Dit toont aan dat je beide kanten van de zaak bekijkt.

Conclusie:

Je redevoering is sterk en goed onderbouwd. Met enkele aanpassingen in toon, extra voorbeelden en meer balans in de presentatie van de problemen, kan deze tekst nog overtuigender worden. De kritische blik die je werpt op AI is waardevol en relevant voor de maatschappelijke discussie over technologie en ethiek.
Ik weet niet goed wat ik met dit AI-antwoord moet? Bedankt voor de feedback? Het zou fijn zijn mocht je AI-gegenereerde content ook van een labeltje voorzien, ik vind het wel interessant om te weten welk model deze feedback kan geven.
Wel grappig dat dit soort AI antwoorden meteen aangeven wat er mis is met dit soort AI.
Je zou de toon nog iets formeler kunnen maken, afhankelijk van je publiek. Woorden als “rommel” en “kers op de taart” maken het informeler. Overweeg termen als “overload van irrelevante content” of “excessief energiegebruik” voor een meer academische toon.
Afhankelijk van je publiek (en wat is dit dan?) moet jij dus je eigen(!) stijl aanpassen.... Dit is typisch roepen dat een variatie mogelijk is zonder te stellen of snappen welke variatie beter is. ("Groen is mooi maar blauw ook" - ja - en wat moet je daar mee...?)
Als dat soort adviezen worden opgevolgd - en die adviezen zijn typisch bedoeld voor... verslagen schrijven - dan wordt alles een eenheidsworst en denkt men niet voor zichzelf.
Je maakt een belangrijk punt over auteursrechten en het gebruik van werk zonder toestemming. Dit is echter een breed onderwerp waar je dieper op kunt ingaan.
De grote gapdoos (=huidige AI) stelt dus dat het niet zo ethisch bezig is en dat er veel over te zeggen is. Wat vooral hieruit blijkt dat er geen enkel eigen inzicht bestaat... |:(
In aanvulling over je punt over ethiek: dit is m.i. in het artikel onderbelicht. Iets wat ik kan begrijpen, op een tech-website.

Maar van onderstaande ethische vraag uit het artikel brak mijn klomp:
Zijn AI-systemen in te zetten voor bijvoorbeeld grootschalige desinformatiecampagnes, nepnieuws, spammails of zelfs het ontwrichten van landen? Of zelfs nog groter, vormen ze op termijn een bedreiging voor de mensheid?
Dit is geen vraag, maar een zekerheid. En geen toekomst, maar al gebeurd, zo kan je argumenteren. Dat doet Harari in zijn nieuwste boek, "Nexus". Hij haalt het voorbeeld aan van de AI van Meta die als opdracht kreeg "maximaliseer tijd op Facebook" en om die reden en "zelf" besliste van haatdragende en misleidende berichten te blijven posten vooraanzetten in de feeds omtrent de Rohingya in Myanmar.

Voor wie het boek niet leest (aanrader, anders), een snelle zoektocht op Rohingya Myanmar Facebook" geeft me dit artikel van Amnesty International.

AI is nu al de grenzen voorbij van wat veel wetenschappers aan te raden vonden.

[Reactie gewijzigd door belgianmadcow op 6 januari 2025 14:17]

Zijn boek ligt hier klaar om gelezen te worden, zodra ik klaar ben met Het alles van Dave Eggers. Ik ben zeer benieuwd naar zijn visie, want ik vond Sapiens en Homo Deus erg inzichtrijk. De 21 lessen (vooral het laatste hoofdstuk) vond ik wat minder.
Maar eigenlijk is dit geen gevaar van AI. De AI is/was een tool en een bedrijf gebruikt deze om nog meer geld te verdienen en geeft daarbij niets om ethiek (wat niet verwonderlijk meer is....).
Zonder de tool deed/doet FB dit namelijk ook al tenslotte. Dat het makkelijker wordt wil niet zeggen dat AI gevaarlijk is. Dat is hetzelfde als zeggen dat wapens gevaarlijk zijn maar meteen ook noodzakelijk.

De echte fout zit dus ergens anders (namelijk bij Meta - die niets geeft om ethiek).

Dit is geen AI die zomaar zelf iets bedenkt - de opdracht is statistische/quantiatieve maximalisatie van interactie met gebruikers. En laat deze tool/AI nu heel goed overweg kunnen met statistiek...

Dus ook hier weer: een wapen is vooral gevaarlijk als deze in de handen van een psychopaat valt. Het wapen is AI en de psychopaat (=iemand zonder empathie) is Meta....
Je hebt een punt, dat gewetenloze bedrijven ook zonder AI al schade kunnen berokkenen.

Ondanks zijn felle waarschuwingen benadrukt Harari ook meermaals in zijn boek dat technologie (waaronder ook AI) zelden "technologisch deterministisch" is, in de betekenis van inherent goed of slecht. Het is daarentegen een kwestie van hoe we ze gebruiken. Zijn hele boek heeft m.i. als doel om de democratische mogelijkheid te scheppen van AI binnen gewenste grenzen te houden.

Een goed begrip van de risico's is daarbij een goed begin. Zo is AI "bovenmenselijk efficiënt" in het herkennen van patronen. Het risico is dan van dat patroon tot een categorie te verheffen, en er een zekere waarheid aan toe te kennen, terwijl het in de eerste plaats een ordening is. Zo zouden algoritmes nieuwe categorieën kunnen "uitvinden" in de stijl van koelakken. In het geval van Meta en de Rohingya vond stelde het algoritme vast dat posts die tot verontwaardiging en woede opriepen het maximalisatie-doel dienden.

De EU heeft alvast wetten die iemand "recht op uitleg" verzekeren, als een algoritme mee een lening weigert of mee een strafmaat bepaalt. Alleen, als die uitleg geen onbegrijpelijke lege doos mag blijken dan moet dat algoritme gecontroleerd worden door een ànder algoritme (op bias bv) en onder toezicht van mensen.

[Reactie gewijzigd door belgianmadcow op 10 januari 2025 12:24]

Ja, we zijn helaas ook zonder AI, al vervallen in de "Computer Say No" situatie... en de uitleg onbreekt veelal.
AI zou dit dus vooral nog erger kunnen maken - in ieder geval niet verbeteren helaas.

Ik ben niet tegen AI an sich, maar als het wordt ingezet om mensen te beoordelen, kunst te maken of verhalen te schrijven, heb ik echter wel flinke bedenkingen.
En het idee dat regulering dit zou kunnen voorkomen durf ik te betwijfelen.
Ik vrees dat ik het met je mening over de kansen van regulering eens ben. Niet omdat het niet gereguleerd kàn worden, want dat kan wel. Maar omdat regulering in één stuk van de wereld niet volstaat. Net zoals klimaatopwarming is een ontsporen van AI een wereldwijd probleem/risico. Eén machtsblok dat lak heeft aan alle regels kan de boel al helemaal verzieken. Er is iets als een non-proliferation-treaty (of joint- of smart-) nodig, maar het lijkt er sterk op dat het omgekeerde aan het gebeuren is - wildgroei.
AI: Een Verantwoordelijke en Toegankelijke Technologie
Vanuit ecologisch perspectief is AI misschien wel een van de meest nuttige toepassingen van onze energiebronnen. Waar bedrijven in de Fortune 500 en de rijkste 1% vaak een schandalig hoge hoeveelheid energie verspillen, voel ik me als individu niet schuldig wanneer ik AI gebruik om mijn leven te verbeteren.

Kritisch denken blijft cruciaal
Hoewel wetenschap vaak wordt gepresenteerd als de absolute waarheid, is het belangrijk kritisch te blijven. Wetenschappelijke inzichten evolueren constant door onderzoek en nieuwe ontdekkingen. AI kan daarbij een rol spelen als versterker, verbreding van perspectieven, en assistent in onderzoek en innovatie. Uiteraard moet alles wat AI genereert, worden gevalideerd. Toch blijkt dat AI in veel gevallen al efficiënter en goedkoper is dan professionals, van het detecteren van borstkanker tot het ontwerpen van vliegtuigonderdelen.

AI als toegankelijk alternatief
AI biedt bovendien oplossingen in sectoren die vaak ontoegankelijk zijn door hoge kosten. Denk aan psychologen, advocaten, dokters, en andere specialisten.

Psychologen: Waar een korte sessie al snel meer dan €100 kost en vaak niet wordt terugbetaald, kan AI gratis emotionele ondersteuning, inzichten en advies bieden.
Advocaten: AI kan juridische ondersteuning bieden die sneller en goedkoper is, en advocaten kunnen AI combineren met hun expertise om nog meerwaarde te creëren.
Andere beroepen: Kunstenaars, schrijvers, programmeurs, copywriters en boekhouders zien hun expertise toegankelijker worden dankzij AI. Veel van hun specialisaties worden nu beschikbaar voor iedereen, vaak gratis of tegen minimale kosten.

Een wereld in transitie
Hoewel sommigen vasthouden aan hun ivoren toren, verandert AI de wereld fundamenteel. Beroepen verdwijnen niet, maar specialisten kunnen veel efficiënter en sneller werken. Dit maakt hun diensten goedkoper en toegankelijker, of het leidt tot een daling in de vraag naar hun expertise, wat ze exclusiever maakt.

Mijn persoonlijke ervaring
AI heeft me al een schat aan informatie geleverd. Wat ik nu in enkele minuten met AI kan bereiken, zou me anders uren of dagen kosten aan online onderzoek en samenvatten. Natuurlijk maakt AI fouten—soms interpreteert het formules of wetteksten verkeerd. Maar met gezond verstand kan ik die fouten corrigeren en mijn focus leggen op wat écht belangrijk is.

Een hulpmiddel, geen vervanger
AI is geen vervanging, maar een hulpmiddel. Het democratiseert kennis en expertise, waardoor meer mensen toegang krijgen tot hoogwaardige ondersteuning. Of het nu gaat om complexe medische diagnostiek, juridische bijstand of creatief werk, AI biedt een wereld aan mogelijkheden, mits we het verantwoord en kritisch gebruiken.

[Reactie gewijzigd door g4wx3 op 6 januari 2025 22:19]

Het zou me niet verbazen als deze reactie met de gratis versie van GPT-4 is geschreven. Dat laat alleen maar zien dat zelfs de gratis AI-tools al goed genoeg zijn om gestructureerde, overtuigende teksten te schrijven.
Mij ook niet, al zou het good practice zijn om AI-gegenereerde reacties even van een label of link te voorzien. Ik heb nogal snel het gevoel dat de reactie minder oprecht is wanneer AI ze schrijft.
Juist - de AI teksten hebben een vreemde bias. Iets wat ook wel bij mensen voorkomt maar die zijn dan ongenuanceerder. Maar ze vertonen wel duidelijk allebi een zekere polarisatie.

Dit soort opmerkingen zijn tergend:
Natuurlijk maakt AI fouten—soms interpreteert het formules of wetteksten verkeerd. Maar met gezond verstand kan ik die fouten corrigeren en mijn focus leggen op wat écht belangrijk is.
Vertaling: Natuurlijk ben ik dom maar als jij dat niet bent dat zou het goed moeten komen ook al is de focus nu juist verlegd naar mijn input omdat jij het antwoord niet wist....[wat daarom zocht je dit tenslotte...]

En wat is echt belangrijk? Betrouwbaarheid - wat niet hetzelfde is als onfeilbaarheid. En dankzij de puur statistisch onderbouwing van elk antwoord - zonder enig echt inzicht(!) - is de betrouwbaarheid nu juist heel slecht. Maar het klinkt wel goed - niet veel anders dan een reclame-makers of politici - die klinken vaak goed maar zijn onbetrouwbaar met hun antwoorden... Maar daarbij hebben we geleerd dat ze onbetrouwbaar zijn (vanwege hun onderliggende motiieven). Bij AI is die onbetrouwbaarheid niet zo goed in te schatten als we niet weten dat AI het antwoord geeft....
Wat ik interessant vind aan deze discussie, is hoe vaak mensen AI-reacties als ‘minder oprecht’ ervaren, terwijl dat puur gebaseerd is op vooroordelen. Niemand vraagt om labels voor menselijke reacties die gebaseerd zijn op Wikipedia, artikelen of Google-zoektochten. Waarom zouden we dat dan wel doen voor AI?

Een goed argument blijft een goed argument, ongeacht of het door een mens of een AI-tool is geschreven. Het probleem is dat veel mensen AI-reacties pas als ‘minder oprecht’ zien nadat ze weten dat een AI erbij betrokken was. Maar als de inhoud klopt en de toon professioneel is, maakt het niet uit wie of wat de tekst heeft geschreven.
Je hebt gelijk, vandaar dat ik het ook als gevoel bestempel ;-)

Ik heb een voorkeur voor het artisanale blijkbaar. Zo lees ik liever een boek/tekst die geschreven wordt door een persoon, kijk ik bij voorkeur filmpjes die door mensen gemaakt werden en wil ik niet luisteren naar muziek met AI(-sausje).

Is dat logisch? Nee, maar ik zie creativiteit als iets typisch menselijk en bij AI is het toch meer een trucje. Ik heb echter geen problemen met AI's (of andere algoritmen) die wetenschappelijke kennis vooruithelpen.
Misschien moet het nog wat meer rijpen voor ik er mentaal mee om kan ;-)
ik ben benieuwd wanneer de hype van excel of powerpoint eindelijk over is.

Op een dag willen we niet meer getalletjes in een 2D raster stoppen, dat moet toch multidimensioneel, minstens 3D, en dan gaan bekijken met een 3D bril, of VR-bril, want 3D-hype is al even weer voorbij.

De 2D desktop heeft ook zijn langste tijd gehad, ik wacht nog steeds op een 3D desktop, en die windows verkenner boomstructuur is hopelijk ook een hype die voorbij gaat, Op mac kan je tenminste navigeren via kolommen.

/S nee AI is geen hype, AI is een tool, net zoals file explorer, excel en powerpoint.
1️⃣ Ethische kwesties bij trainingsdata
Je stelt dat het gebruik van content van kunstenaars, journalisten en wetenschappers zonder toestemming ethisch problematisch is. Dit is een belangrijk punt, maar laten we dit in context plaatsen.

➡️ Feit: LLM's worden getraind op openbare data die vrij beschikbaar is op het internet. Ze kopiëren geen specifieke werken, maar leren patronen en structuren van taal. Dit is vergelijkbaar met hoe mensen leren: door te lezen, luisteren en observeren.

Vergelijking:
Wanneer jij een boek leest en later die kennis toepast, ben je dan aan het kopiëren? Nee, je hebt geleerd van wat je gelezen hebt. Zo werkt een taalmodel ook.

Oplossing:
Ja, er zijn discussies over hoe datasets in de toekomst samengesteld moeten worden. Maar bedrijven zoals OpenAI werken al aan transparantere en ethisch verantwoorde datasets.

2️⃣ Probleem met betrouwbaarheid en hallucinaties
Je hebt gelijk dat AI soms foutieve of verzonnen antwoorden geeft. Maar dat gebeurt vooral met de gratis versies (zoals GPT-3.5). De betaalde versie, GPT-4 Turbo, is veel betrouwbaarder en heeft een veel beter begrip van context en nuance.

➡️ Jouw kritiek gaat vooral op voor gebruikers die geen verstand hebben van prompt-engineering.
Als je AI goed gebruikt — met kritische vragen en duidelijke instructies — krijg je doorgaans uitstekende antwoorden.

Praktisch voorbeeld:
Ik gebruik ChatGPT om complexe juridische documenten samen te vatten, medische literatuur te analyseren en zelfs codeproblemen op te lossen. Ik vraag altijd om meerdere invalshoeken en check de bronnen. Dit bespaart me uren werk.

3️⃣ Webrommel en contentvervuiling
Dit punt begrijp ik volledig. Er zijn inderdaad veel AI-gegenereerde artikelen op het web die oppervlakkig en onnauwkeurig zijn. Maar dit probleem bestond al vóór AI. Het is meer een probleem van zoekmachines dan van AI zelf.

Oplossing:
De toekomst ligt in hybride systemen waarin AI helpt om kwaliteit te waarborgen. Google werkt bijvoorbeeld aan algoritmes die AI-content beter kunnen beoordelen en filteren.

4️⃣ Ecologische impact van AI
Je noemt de hoeveelheid energie en water die AI gebruikt. Dat is inderdaad een aandachtspunt, maar laten we dit in perspectief plaatsen.

➡️ Wist je dat streamingdiensten zoals Netflix jaarlijks véél meer energie verbruiken dan de hele AI-industrie samen?
➡️ Het internet zelf (inclusief datacenters en zoekmachines) verbruikt gigantisch veel energie.
➡️ AI kan juist bijdragen aan duurzaamheid door processen te automatiseren, energieverspilling te verminderen en betere beslissingen mogelijk te maken.

Voorbeeld:
In de gezondheidszorg kan AI helpen om diagnoses sneller en accurater te stellen, wat leidt tot minder verspilling van middelen en betere behandelresultaten.

🚦 Waarom AI niet “op de rem” hoeft
Ik ben het met je eens dat er meer ethische en academische controle moet komen. Maar AI heeft al enorme voordelen gebracht in sectoren zoals gezondheidszorg, recht, en onderwijs.

In plaats van “op de rem trappen”, zou ik pleiten voor verantwoord gebruik en betere regulering. AI is hier om te blijven.

[Reactie gewijzigd door triple728 op 7 januari 2025 18:37]

➡️ Feit: LLM's worden getraind op openbare data die vrij beschikbaar is op het internet.
Daar gaat het al mis. Het is al aangetoond dat het 'vrij beschikbaar zijn' niet waar was.
Ze kopiëren geen specifieke werken
Jawel. Ze [de LLM AI] nemen vaak exact(!) een deel over van het originele werk. Dat mocht ook al niet als menselijke kunstenaar of schrijver. Het is net zoals iets als een sample gebruiken van een muziekstuk. Het is slechts een deel maar het gaat erom tot welke opdeling is het nog acceptabel hergebruik i.p.v. een deelduplicaat.
Mensen gebruiken natuurlijk ook informatie van anderen dus is dat dan ook misbruik? Nee. Want het grote verschil is dat dit niet systematisch wordt ingezet om geld te verdienen over(!) het werk van anderen. En nogmaals: we ontkomen niet aan het gebruiken van andersman werk maar de AI gaat echt wel een stapje verder. Het menselijk geheugen is niet zo absoluut als dat van een LLM. En als de LLM alleen maar wordt gebruikt om informatie te ontsluiten zonder dat de aanbieder van deze LLM daar veel wijzer van wordt, dan valt het allemaal nog wel mee. Maar dat lijkt niet het geval te zijn.

En wat vergeten wordt: als dit doorgaat zullen de aanbieders van echte informatie of video- of audio-materiaal ofwel stoppen met het maken daarvan (want niet meer rendabel) of het achter strikte paywalls plaatsen.
Dus i.p.v. meer informatie die beschikbaar komt wordt het juist minder.
In de gezondheidszorg kan AI helpen om diagnoses sneller en accurater te stellen
Natuurlijk kan het helpen. Maar zonder besef en echte context gaat het mis en dat is helaas al eens gebleken. Dat een combinatie statistisch niet fout is of plausibel lijkt wil nog niet zeggen dat het goed is.
Maar AI heeft al enorme voordelen gebracht in sectoren zoals gezondheidszorg, recht, en onderwijs.
Net zoals het Internet an-sich of de boekdrukkunst...wat is je punt hier? Deze AI is geen entiteit die iets begrijpt; het is een tool die beschikbare data gebruikt en toegankelijker maakt.
zou ik pleiten voor verantwoord gebruik en betere regulering
Ja, net zoals alle social media hebben laten zien dat dit wel goed komt.... :X
De oplossing ligt ook komt vanuit een beter besef van de gebruikers van dergelijke systemen. Regulering zou moeten beteken: minder data beschikbaar voor LLM omdat lang niet alle informatie/data echt 'vrij' is. Ook al is het te vinden op het internet, dat wil toch niet zeggen dat je het zomaar commercieel mag gebruiken???

[Reactie gewijzigd door Tintel op 9 januari 2025 13:30]

1️⃣ “LLM's nemen vaak exacte delen over van originele werken”
➡️ F!
LLM’s genereren tekst op basis van patronen in data, maar ze halen geen hele zinnen of paragrafen rechtstreeks uit de bron (tenzij de input specifiek daarom vraagt).
Vergelijk het met een student die samenvattingen maakt van boeken. Je leert patronen, en vervolgens gebruik je die kennis om nieuwe teksten te creëren. Als je GPT op de juiste manier gebruikt, krijg je originele output.

2️⃣ Vergelijking met sampling in muziek
➡️ F!
Sampling in muziek is bewust gebruik van exact hetzelfde geluid of fragment. AI werkt heel anders: het leert taalstructuren en concepten, zoals een mens dat doet, en genereert daarna unieke output.

3️⃣ “Mensen gebruiken niet systematisch andermans werk om geld te verdienen”
➡️ WEL GEBEURT!
Dit is ironisch. Wat doen journalisten, academici en bloggers dan? Iedereen baseert zich op eerder werk. Het verschil is dat mensen vaak niet eens hun bronnen benoemen. AI gebruikt open beschikbare data en past deze toe om nieuwe kennis toegankelijker te maken. Het probleem is niet AI, maar de manier waarop mensen AI gebruiken zonder na te denken.
LLM’s genereren tekst op basis van patronen in data
Nou, volgens mij nemen ze wel degelijk samples van de brondata. Dat is precies waarom beeldkunstenaars hun eigen werk herkennen. Dat bepaalde delen anders worden dat klopt wel. Maar de bron blijft vaak 'zichtbaar' / herkenbaar.
Vergelijk het met een student die samenvattingen maakt van boeken.
Ja en die student doet dus eigenlijk niet wat ChatGPT doet - dat deze middels wat find-replace andere woorden gebruikt - dus delen vervangt betekent nog niet dat het echt veel anders is dan de brondata.
Maar goed - het lijkt inderdaad wel op elkaar.
AI werkt heel anders
De LLM variant die gebruikt statistieken om te bepaalde welke combinaties het meest voor de hand liggen. Het leert echt niet zoals mensen leren. Gelukkig niet...
Mensen gebruiken niet systematisch andermans werk om geld te verdienen
Het gaat om het woord 'systematisch' hier - mensen gebruiken natuurlijk wel degelijk andersman data idd. Maar mensen zijn geen systemen die je kunt dupliceren.
Mooi stukje @Aegir81 Aegir81! Helemaal mee eens!
Hoewel dit artikel interessante inzichten biedt over AI-toepassingen voor eindgebruikers, lijkt het een cruciale dimensie over het hoofd te zien: de transformationele kracht van AI in administratieve processen en bureaucratische systemen. Vooral in Nederland met zijn diensteneconomie bestaan veel banen uit het verzamelen van informatie, dit afzetten tegen kaders en daarop beslissingen nemen. Dit zijn ideale taken voor taalmodellen die goed in staat zijn om uit veel informatie de juiste beslissing te halen en daarop vervolgacties te nemen. Voorbeelden zijn het afhandelen van verzekeringsclaims, beoordelen van aanvragen van leningen, afhandelen subsidieaanvragen of belastingen, helpdesks, juridische procedures. Als de hoofdtaak in eerste instantie te complex of risicovol is kan begonnen worden met voorbereidingen zoals routering, sorteren informatie en opstellen beslissingscriteria. Gebruikers reageren vaak heel enthousiast over de mogelijkheden.
Dit soort cases vergen wel veel voorbereiding en ontwikkeling. Het is een illusie te denken dat Copilot hierin kwaliteit gaat bieden. Voor dit soort toepassingen is heel veel context nodig: werkinstructies, procesbeschrijvingen, juridische informatie, modelbrieven . Zelfs het contextwindow van GPT4o (128K tekens) is hier vaak te beperkt. De informatie moet dus gecomprimeerd worden. Een mogelijkheid is RAG (Retrieval Augmented Generation). Ook knowledge graphs of hybride oplossingen kunnen helpen. Ook kun je in stappen werken en een taalmodel eerst laten selecteren en samenvatten en dan vervolgens de case daarmee oppakken. Fine-tuning van een model is ook een optie. Verder moet dit alles in een veilige omgeving omdat je werkt met vertrouwelijke informatie en persoonsgegevens. Het betekent ook laveren langs de grenzen van de AI act. Dan moet er nog een efficiënte pipeline ontwikkeld worden. Allemaal veel werk en veel investeringen, maar ik ben ervan overtuigd dat dit de AI transformatie is die we de komende jaren zullen doormaken.
Hoewel AI sommige banen zal vervangen, opent het ook deuren naar nieuwe mogelijkheden waar menselijk toezicht en creativiteit onmisbaar zijn. Dit is geen probleem, maar een kans in een tijd van arbeidstekorten en economische veranderingen.

[Reactie gewijzigd door Poecillia op 5 januari 2025 14:49]

Vooral in Nederland met zijn diensteneconomie bestaan veel banen uit het verzamelen van informatie, dit afzetten tegen kaders en daarop beslissingen nemen.
En juist dat is, waar het informatie en beslissingen betreft inzake private personen, illegaal.
Zowel onder de AVG/GDPR als de AI Act; en waar het bijv. het modereren van online geplaatste inhoud betreft, ook onder de Digital Services Act (DSA).

Verder nuttigt je reactie taalgebruik wat mij doet denken dat deze ten minste ten dele door een LLM gegenereerd is.

[Reactie gewijzigd door R4gnax op 5 januari 2025 17:49]

Dat geldt niet voor alle categorieën en voorlopig houden we ook nog wel de human in de loop voor high-risk. Mijn ervaring is dat er veel kan met IB&P, als je het maar grondig aanpakt. Juist in Nederland moeten we hier iets mee. Onze productiviteit blijft al jaren achter en dat ondergraaft onze welvaart.

Misschien dat mijn taalgebruik op LLM's begint te lijken omdat ik ze zoveel gebruik :-) Je hebt in zoverre gelijk dat ik mijn reactie heb laten reviewen door een LLM, daarvan heb ik twee zinnen gebruikt waardoor het compacter werd. De rest vond ik geen verbetering.

'Verder nuttigt je reactie taalgebruik wat mij...... ' Jouw reactie is in ieder geval niet door een taalmodel gemaakt.....

[Reactie gewijzigd door Poecillia op 5 januari 2025 18:03]

Onze productiviteit blijft al jaren achter en dat ondergraaft onze welvaart.
Volgens mij is het de productiviteitsstijging die achter blijft, niet de productiviteit. En dat is vrij logisch omdat de productiviteit per persoon in Nederland al erg hoog ligt.
En is productiviteit het hele doel van het leven? Misschien is lagere productiviteit best prima als we een hoge levensstandaard kunnen hebben en iedereen gelukkig is.
Inderdaad, bedrijven proberen steeds meer te automatiseren, maar als je dat lijntje verder door trekt naar de toekomst, heeft bijna niemand daar werk, geen inkomen, waar moeten mensen dan hun spullen van kopen? We zijn een doodlopende straat ingeslagen.
UBI is een oplossing. Kijk naar "The Expanse" als je wil zien wat er gebeurt als we dat verkeerd doen.
Dat klinkt mooi, maar waar wil je extra zorg door vergrijzing, extra defensie, de uitkoop van boeren etc van betalen? Zonder stijging van de productiviteit raken we in verval, maar dan wel gelukkig....
Voor analytische taken zoals je die benoemt, kan AI zeker werken, maar generatieve modellen waar de hype nu over gaat kunnen dat vooralsnog gewoon totaal niet.

Wat veelal over het hoofd wordt gezien en wat jij terecht aanhaalt is dat voor de meeste toepassingen er gewoon nog een lang ontwikkeltraject nodig is, ook als het over gebruik van generatieve AI gaat. Ik ken geen solide studies daarover, maar mijn gevoel als onderzoeker in het vakgebied is dat de ontwikkelprojecten nog even lang zijn als voor de opkomst van LLMs, er zijn nu alleen meer toepassingen waarbij AI (generatief of een andere vorm) nuttig kan zijn.
Waar ik niemand over hoor praten zijn de kosten, een AI draaien zoals die van de grote jongens, kost een paar duiten, laatst een artikel dat MS er weer 80 miljard er tegen aan gooit, dat geld willen ze terug verdienen, en dat zal links om of rechts om gebeuren, maar meestal komt dit bij de consument terecht. Dus buiten de vraag hoeveel banen dit gaat kosten, zou ik graag meer horen wat die server kosten ons gaat kosten.
Ik zag het bericht ook en het is hard nodig. Er is nauwelijks capaciteit in West Europa bij MS. Het is verder schaalbaar, voor incidenteel gebruik bij onderzoek kost het nog niet veel. Maar ga je het breed introduceren zoals Copilot dan is het een ander verhaal. Je hebt trouwens altijd de keuze om een open source model te installeren. Dan heb je natuurlijk zelf een server nodig
Dat is dan geen rasberrie Pie of zo, maar een flink systeem met een flinke gpu er in, dat is dat alleen interessant voor bedrijven, niet voor de gemiddelde consument. Ik zie dit echt een keer stranden, misschien dat er 2 AI's overblijven, en dan moeten ze heel snel er voor zorgen dat wat er uit die AI komt ook daadwerklijk waar is. Want zoals het er nu voor staat, komen er nog te veel fouten voort uit die AI.
Dat klopt, maar in de cloud kun je gewoon on-demand werken. Als je zorgvuldig aan en uitschakelt kost het heel weinig
Van social media naar 'AI media' en van de rekenmachine naar AI berekeningen (en zoveel meer toepassingen). Super handig en snel. Het is nog makkelijker om ergens antwoorden op te vinden of inspiratie op te doen dan de gewone zoekmachine. Ongetwijfeld zal er ook een strijd zijn dat geldschieters een bepaalde macht eruit halen.

Ik heb een open source AI gevraagd om te reageren op dit artikel en die zei het volgende:

"..het artikel negeert een aantal belangrijke aspecten van AI. Ten eerste, het artikel negeert de rol van open source AI-projecten en de bijdrage van de community aan de ontwikkeling van AI-technologie. Veel van de belangrijkste vooruitgangen in AI zijn gemaakt door open source projecten en de community-bijdragen zijn cruciaal voor de ontwikkeling van AI.

Ten tweede, het artikel benadrukt de voortdurende strijd tussen de grote techbedrijven om de beste AI-technologie te ontwikkelen, maar negeert de samenwerking tussen deze bedrijven en de academische wereld. Veel van de belangrijkste vooruitgangen in AI zijn gemaakt door samenwerking tussen de industrie en de academische wereld.

Ten derde, het artikel benadrukt de voortdurende strijd tussen de grote techbedrijven om de beste AI-technologie te ontwikkelen, maar negeert de rol van start-ups en kleinere bedrijven in de ontwikkeling van AI. Veel van de meest innovatieve en disruptieve AI-technologieën komen van start-ups en kleinere bedrijven.

Ten slotte, het artikel benadrukt de voortdurende strijd tussen de grote techbedrijven om de beste AI-technologie te ontwikkelen, maar negeert de rol van overheden en regeringen in de ontwikkeling van AI. Overheden en regeringen spelen een belangrijke rol in de regulering en bevordering van AI-technologie.

In het algemeen, het artikel geeft een goede overzicht van de huidige stand van zaken in de AI-technologie, maar negeert een aantal belangrijke aspecten van AI, zoals de rol van open source projecten, de samenwerking tussen de industrie en de academische wereld, de rol van start-ups en kleinere bedrijven en de rol van overheden en regeringen in de ontwikkeling van AI."

Want tja, waarom zou ik zelf zoveel moeite doen om erin te verdiepen en een reactie te schrijven als dit voor mij gedaan kan worden?
Haha. Nou, misschien om die reactie samen te vatten ;-) Er staan veel dubbele teksten in. En niet elke is even relevant (het punt over overheden stond wel in het artikel). Maar niettemin, interessante reactie :-) mn die over startups en open source.
Is dat waar trouwens, dat OSS zoveel heeft bijgedragen aan de grootste ontwikkelingen? Ik weet dat die emee doet, onder meer via mozilla.ai, maar ik zou niet weten welke 'grote ontwikkelingen' daar vandaan komen.
Is dat waar trouwens, dat OSS zoveel heeft bijgedragen aan de grootste ontwikkelingen? Ik weet dat die emee doet, onder meer via mozilla.ai, maar ik zou niet weten welke 'grote ontwikkelingen' daar vandaan komen.
Mozilla ontwikkelt low-footprint taalmodellen die 100% lokaal kunnen draaien om webpagina's te vertalen en daarvoor maar weinig resources nodig hebben.
… dat is echt super handig. En goed voor privacy - een aspect wat ik toch een tikje onderbelicht vond in het artikel.
HuggingFace, LangChain en Python zijn vrij belangrijk in de AI/LLM wereld.
Wat ik in het artikel mis is dat er vooral naar huidige AI capaciteiten gekeken wordt.
In 2024 is de ontwikkeling van AI exponentieel. Open AI heeft in in dit jaar gpt 4o uitgebracht, O1 en O3 is aangekondigd. Van O3 wordt beweerd dat het AGI is (beetje voorbarig).
Andere AI ontwikkelaars maken vergelijkbare stappen. Ongekend in de historie van de technologie.
Men zit wel op het punt dat onderzoek/ontwikkelingen door AI verricht gaan worden, dat gaat dit jaar waarschijnlijk gebeuren. AI dat AI gaat ontwikkelen, riemen vast.
Robotica: voor 20 k is al een humanoid robot te bestellen bij Ali express. Ongetwijfeld een beperkt apparaat. Vorig jaar liep iedereen nog te watertanden over die figure 01 robot demo.
Werkgelegenheid: op Youtube al een filmpje gezien van een IT'er die het had over werkeloosheid onder it'ers in de VS: ze gebruiken liever Claude dan een jonge onervaren kracht. Big tech gooit massa mensen de laan uit ondanks dat de zaken erg goed gaan, er komen geen nieuwe banen bij...
En zelfs op tweakers krijgt AI nauwelijks aandacht, ik vind dat toch best bijzonder.

Een oudje, maar kijk even naar de cartoon v/d ai trein die het perron passeert. Uit 2015, denk dat we dit nu meemaken.
https://waitbutwhy.com/20...ligence-revolution-2.html
Je schrijft dat AI zich exponentieel ontwikkelt. Op welke waarden doel je dan? 2x minder hallucinaties? 2x meer stroomverbruik? 2x meer gebruikers?
Want tja, waarom zou ik zelf zoveel moeite doen om erin te verdiepen en een reactie te schrijven als dit voor mij gedaan kan worden?
Omdat je eigen gegenereerde tekst het prachtige gebrek aan inzicht laat zien, zoals:
"Ten tweede, het artikel benadrukt de voortdurende strijd tussen de grote techbedrijven om de beste AI-technologie te ontwikkelen, maar negeert de samenwerking tussen deze bedrijven en de academische wereld. Veel van de belangrijkste vooruitgangen in AI zijn gemaakt door samenwerking tussen de industrie en de academische wereld."
Dat is weinig meer dan marketingpraat dat in het model terecht is gekomen. De genoemde "samenwerking" wordt hier bijvoorbeeld gepresenteerd als iets moois terwijl een bedrijf zoals OpenAI nu bezig is met het omvormen van de nodige legal entities om dat mooie werk uit de academische wereld, wat overigens ook niet volledig klopt gezien waar bv. transformers vandaan komen, om te zetten in harde knaken.

De rest van de kennis komt inderdaad uit de academische wereld. Ver voordat moderne computers bestonden, dus tot zover de samenwerking ;)

Andere zaken zoals de nieuwere modellen die bijvoorbeeld geïntroduceerd werden als onderdeel van Stable Diffusion (bv. het kunnen genereren van leesbare tekst) zijn voor zover ik me kan herinneren gewoon gemaakt op basis van investeringen met de hoop om er later aan te verdienen. Is niets slechts aan, maar niet wat hierboven wordt geschreven.

Kort: je zou jezelf moeten verdiepen omdat huidige "AI" vooral marketingmateriaal dupliceert en daar heb je weinig aan omdat zulks meestal een loopje neemt met de werkelijkheid.
Ik sluit me aan bij andere reacties, tot nu toe is een AI niet meer dan een gemiddelde mens die alleen de krantenkoppen leest, en soms een beetje inhoud, maar in ieder geval niet in staat is tot enige diepgang, en zeker niet in staat om 'door zaken heen te prikken' .
AI niet meer dan een gemiddelde mens
Ik hoop echt dat het gemiddelde hoger ligt....

Deze AI snapt werkelijk niets....

Een speurhond kan ook goed zoeken [op basis van geur] maar stellen we dan dat deze een goede detective is?
Want tja, waarom zou ik zelf zoveel moeite doen om erin te verdiepen en een reactie te schrijven als dit voor mij gedaan kan worden?
Niemand is geïnteresseerd in de mening van een chatbot. Is eigenlijk forumvervuiling :P
Wat vind jij?
Ondertussen worden in de wetenschap enorme sprongen gemaakt dankzij AI. Maar omdat heel veel mensen AI koppelen aan LLM’s, wat slechts 1 van de toepassingsgebieden is, denkt men dat AI nutteloos is.

Zo ook robotica. Decennia lang is dat gestagneerd. Sinds AI wordt toegepast, zijn er steeds meer startups die robots ontwikkelen zoals men al in de jaren 90 verwachtte.

AI wordt natuurlijk ook ingezet voor rotzooi, zoals social media. Laat dit nou ook een positieve ontwikkeling zijn en laat mensen wegstappen van het verwerpelijke social media :)
Maar een zeer groot deel van alle investeringen gaat net naar die LLMs, en het is niet omdat het een taalmodel is, dat het alleen maar voor gesprekken gebruikt wordt. Dezelfde LLM technologie zit ook achter de technologie die gebruikt wordt om bijv. afbeeldingen en videos te genereren.

En dat er meer startups zijn heeft meer te maken met dat er een hype is rondom het buzzword AI en er weer veel kapitaal beschikbaar is om te investeren, niet omdat er bijv. in de robotica ineens enorme sprongen voorwaarts worden gemaakt die 10 jaar terug onmogelijk zouden zijn. En dat is in vele gebieden zo. Ineens noemt men alles AI waarbij de computer autonoom iets moet doen en zijn mensen bereid er geld voor te betalen ondanks dat een functie al jarenlang bestaat onder een andere naam.
Dat valt wel mee, ik investeer namelijk ook in AI met een investeringsmaatschappij (totale investering in de groep tikt de 120 miljoen dollar aan). LLM’s zijn het bekendst op dit moment, er zit ook veel potentie in vanwege het verhogen van productiviteit van medewerkers. Maar puur de infra en hardware an sich is waar de meeste geldstromen naartoe gaan.
Maar een zeer groot deel van alle investeringen gaat net naar die LLMs, en het is niet omdat het een taalmodel is, dat het alleen maar voor gesprekken gebruikt wordt. Dezelfde LLM technologie zit ook achter de technologie die gebruikt wordt om bijv. afbeeldingen en videos te genereren.
Een groot deel van alle investeringen gaat naar de LLMs omdat die techniek er nu is; nu vruchten af kan werpen; en voor de toepassingen die de grote investeerders uit de industrie voor ogen hebben -- voornamelijk: simpelweg mensen wegbezuinigen -- 'goed genoeg' is.
Mee eens, het baanbrekende onderzoek naar proteïnes dat de meest recente Nobelprijs voor scheikunde gewonnen hebben (zie https://www.nobelprize.or...istry/2024/press-release/) is wat mij betreft vele malen belangrijker dan het spelen wat veel mensen nu doen.

Ik vermoed dat over een paar jaar generatieve AI pas echt nut gaat hebben. De huidige 'speelvormen' zijn vaak technologiegedreven en ontstaaan omdat een organisatie niet achter wil blijven (oplossing zoekt probleem). De echte oplossingen komen pas als er een daadwerkelijke behoefte is waar AI een daadwerkelijke oplossing voor is.
Inderdaad, je hebt het hele autonome drone gebied, het militaire, Wolfram Alpha, de financiële sector en wat mensen custom bouwen voor zichzelf of bepaalde bedrijven. We zien maar een glimp, de LLM's kunnen wel verschillende andere modellen aan elkaar proberen te linken als interface, maar we zitten nog maar aan het begin.

En natuurlijk heb je de rotzooi en daar gaan mensen zich daar op focussen om dan dingen te reguleren of zich laten beet nemen en dan niet onder de indruk zijn wat er mogelijk is. Zodat uiteindelijk enkel een paar grote speler overblijven en er niets voor de "normale man" is. En dan heb ik het niet over de AI-coaches en zelf toegewezen goeroes die je gaan uitleggen hoe je het "zou" moeten of kunnen gebruiken. Dit klinkt vrij logisch een assistent inhuren om je te leren hoe je een digitale assistent zou kunnen gebruiken 8)7 . Natuurlijk ben je dan niet onder de indruk...
Alle artikelen zijn zo'n beetje gebaseerd op generative ai, terwijl veel van het echte werk met deterministische Ai gebeurt en in de praktijk al veel toegepast wordt.
AI in het algemeen is idd wat anders. Op dit moment is de hype toch ook voornamelijk gebaseerd opLLM's?
[...]social media. Laat dit nou ook een positieve ontwikkeling zijn
Op dit moment wordt het helaas ingezet om social media nog verslavender te maken....
Waar ik mij met name aan stoor, is dat alles en iedereen geld probeert te verdienen als Ai coach of Ai-organisatie-begeleider. Dan ben ik nog niet eens begonnen over de oneindig hoeveelheid Ai-tools die als vergiftigde paddenstoelen uit de grond schieten waar bij alles en iedereen een abbonementje moet worden afgesloten om er gebruik van te maken.

Als ik kijk naar de mogelijkheiden en de wijze waarop Ai impact heeft op mijn werk hou ik het eigenlijk bij OpenAi en een Afbeeldings Ai die ik de moeite waard vind om er gebruik van te maken.De rest is allemaal bij mij van hetzelfde.

De nieuwe Ai van Meta (op concept basis ipv LLM) oogt ook interessant, alleen kan ik nergens vinden waarop deze getraind is of wat er met mijn data gebeurd als ik er gebruik van maak (heb wel een vermoeden)
"Prompt engineers". Als er een term is waarvan ik spontane allergische reacties krijg, is dat het wel.
"Prompt engineers". Als er een term is waarvan ik spontane allergische reacties krijg, is dat het wel.
Het ironische is, dat bladen als Technisch Weekblad en zelfs op diploma's in Nederland überhaupt ''software engineer" niet wilde herkennen. Elke afgestudeerde ingenieur mocht het blad gratis ontvangen. Heel lang (en misschien nog steeds?) ben je geen ingenieur als je iets met software doet.

Terwijl je in de VS blijkbaar een jaarsalaris krijgt van $400.000?

[Reactie gewijzigd door Harm_H op 5 januari 2025 10:37]

Jaarsalaris van wel meer beroepen in de VS ligt erg hoog. Een bankier verdient nog een stuk meer, maar die noemen we ook geen ingenieur ;) . Dus dat lijkt mij weinig relevant bij de vraag of iemand een ingenieur is.
ja die is ook vreselijk
Claude 3.5 Sonnet en de Amazon Nova modellen zijn anders ook erg indrukwekkend.
oke, ben ik ook met je eens.... :-)
Waar ik mij met name aan stoor, is dat alles en iedereen geld probeert te verdienen als Ai coach of Ai-organisatie-begeleider
En zo ging dat halverwege de jaren '90 precies hetzelfde met iedereen die een boekje HTML voor dummies had gelezen en wat in elkaar knutselde in de avonden voor een kennis of buurman. En zo langzaam doorgroeide naar de eerste klanten via via. Als je maar de eerste bent met iets word je als vooruitstrevend gezien en kan iedereen het worden vanaf zijn zolderkamer.
Een jaar geleden voorspelde ik al dat er velen net zo hard gaan omvallen als samen gaan omdat ze allemaal dezelfde trucjes uithalen. Het volwassenheidsnivo van velen is nog ver te zoeken. Maar dat hoort er ook bij.
Deze race is dit keer, in mijn ogen, gewonnen door Microsoft. Die integreerde zo bizar snel CoPilot in Windows en Cloud Services. Apple AI is in Europa geflopt, wegens regelgeving. Gemini mist marketing, ik ken ook niemand die dat gebruikt.
Het kan aan mij liggen, maar ik heb het idee dat de laatste weken de kwaliteit van CoPilot behooooorlijk achteruit gaat. Ik krijg inmiddels heel veel antwoorden waarvan ik denk of weet "dat klopt niet". Dan stel ik een extra vraag om dat te controleren en dan krijg ik steevast: "Sorry, je hebt gelijk, dat was fout." En dit wordt serieus alleen maar erger.
Moet je de gratis Perplexity eens proberen te vragen om recente gebeurtenissen. Bvb "what's the reception of the Amazon prime series nautilus? "
Hij geeft je een antwoord vol bronnen. Als je dan zegt "But that's after your dataset" krijg je excuses en dat het antwoord gebaseerd was op verwachtingen. Als je dan verder vraagt, geeft hij rustig weer antwoord alsof hij het allemaal weet.
Het lijkt allemaal zo mooi en goed, maar eigenlijk kan je de oude test van "lees iets over waar je verstand van hebt" gebruiken. Dat werkte voor kranten/tijdschriften en nu ook voor AI: als er fouten uit uit komen als je er verstand van hebt, kan je er vanuit gaan dat het ook fouten bevat als je er geen verstand van hebt!
Mijn beeld is ongeveer hetzelfde en volgens mij zit je op dat moment eerst in een kleiner, makkelijker model te werken en als je een controle vraag stelt worden alle Nvidia GPU’s afgetrapt en komt het grotere model erachter dat er iets niet klopt.
Hoe dan ook, de kwaliteit gaat flink achteruit. Het is nu van een dusdanig niveau dat ik bijna denk: “laat maar”.
Maar wint Microsoft dan of OpenAI… daarnaast kan je je sterk afvragen of al die integraties in Windows echt wel zo wenselijk is…

Ik hoop zelf dat Gemini tzt de Google assistant op home producten gaat vervangen zodat de slimme assistent eindelijk echt slim wordt ipv een ‘intent* in > answer out’ wordt… want oliedom is hij/zij momenteel wel. Zo verstaat ze: ‘doe lichten uit’ wel goed, maar wordt dat uitgevoerd als ALLE lampen in mijn hele huis aan… ja echt aan, inclusief de kinderkamers enz… (je kan de input die de assistent hoort/omzet terug vinden). En het zou zo fijn zijn om dan ook dingen te chainen.. ‘doe het licht beneden uit en in de slaapkamer aan’

Er zijn een hoop alternatieven maar komt vaak toch niet in de buurt van hoe de google producten werken (denk bijv aan geen microfoon array, of traag op low spec devices)… mocht een tweaker een idee/suggestie hebben, let me know 🤪

* kom even niet op het juiste woord misschien wat ze doen met ‘zin > opdracht’ concersie
Ik zie niet hoe MS het zou hebben gewonnen. Het meeste waar ik over hoor is en blijft ChatGTP. Copilot is de nieuwe internet explorer. Het zit ongevraagd in de MS bundel en je gebruikt het vast wel eens. Maar het is niet de populairste generatieve AI.

En Apple’s AI is niet geflopt door regelgeving. Het is gewoon nog niet voldoende uitgerold/af. Kijk maar naar de VS en wat er daar dan al beschikbaar van is. En kijk maar naar in welke talen het beschikbaar is.
Bolletje Moderator Harde Waren @PrimusIP5 januari 2025 12:59
Microsoft is een grote backer van OpenAI en ChatGPT in die zin. En Copilot is dan vnl op GPT4 gebaseerd.

Ze zijn wel bezig te kijken om die afhankelijkheid te reduceren, zie ook https://www.reuters.com/t...s-sources-say-2024-12-23/

Voordeel van Copilot is dat het geïntegreerd is met veel andere Microsoft diensten. Veel organisaties zijn over op de Microsoft 365 suite met een licentiemodel. Als Copilot dan een extra dienst er bij wordt, onder dezelfde paraplu, is het makkelijk om te introduceren in de organisatie.

[Reactie gewijzigd door Bolletje op 5 januari 2025 18:04]

Sarcasm om; Ik heb ook iets in MS "geïntegreerd", hoe kleed ik elke bankrekening van 0,01 ct p/p uit ongezien.
Maar helaas :+

Als ik/men iets niet wil of gebruiken, waarom pusht men het toch? Nog meer data gegraai?
Op die manier is Copilot (nog) een manier van Chatgtp in een wrapper. In mindere/beperktere mate gekdt dat ook (nog) voor wat Apple doet.

Wat je dan wel krijgt is dat Copilot niet de grootste is doordat het de beste AI toolset is, maar omdat het ingebakken zit in M365. En M365 heeft een bijna-monopolie in de zakelijke wereld. Iig in grotere organisaties.
Ik hoor anders niets dan klachten daarover, een reden dat de mensen bij ons het ook nog niet zullen krijgen. De kosten zijn al snel 300-900€ per medewerker.

Google doet het met zijn geïntegreerd Ai in workspace stukken beter, vergeet ook niet NotebookLM en hun andere tooling. Het momentum van Microsoft is spullen verkopen, dat van Google is mensen zo goed als mogelijk hun werk laten doen. Onder water kan er al getest worden met Google Streaming Ai die volledig interactief stemgestuurt met een gebruiker samenwerkt en meekijkt op je volledige scherm.
Web 2.0 leek veelbelovend, maar pas met de komst van de Newsfeed maakte Facebook echt een grote vlucht. Zo is dat nu met AI: er zijn veel experimenten, maar de juiste vormen en toepassingen zijn nog niet gevonden.
Vergeet ook de grote volgende stap bij facebook niet: hoe volslagen nutteloos die newsfeed is geworden voor het volgen van de kennissen, hoeveel extra bagger erin terecht komt, en de maatschappelijke schade die hieruit rolt.

Een leuk vooruitzicht voor al die "ai": zelfs als juiste vormen en toepassingen worden gevonden moet je maar op de platformeigenaren vertrouwen dat ze het niet net zo verzieken.

Gegeven de idioot grote bedragen die ermee gemoeid zijn is mijn verwachting in ieder geval dat deze technologie onderhevig zal zijn aan nog veel ergere vormen van platformverloedering dan die we nu kennen.

[Reactie gewijzigd door emphy op 5 januari 2025 06:36]

Ik ben het met je eens. Die gigantische bedragen die erin gepompt worden, moeten terugverdiend worden en dat levert uiteindelijk enshittification op. Ze moeten blijven groeien. We hebben dat meerdere malen megemaakt.

Ik heb ook vragen bij de kwaliteit van de AI. Nu is er nog veel data voor de data hongerige AI modellen om te leren. Straks is er minder data of stel dat het opraakt, hoe gaan die AI modellen dan worden getraind?
Worden de AI modellen dan getraind met hun eigen gegenereerde data/ rommel * ?
Volgens mij wordt het er dan niet beter op. Dan kun je fout op fout op fout krijgen, als een slang die zijn eigen staart opeet.
Of hoe weten we dat AI modellen niet getraind worden met door AI gegenereerde data/ rommel * ?

* Doorhalen wat niet van toepassing is.

[Reactie gewijzigd door Jittikmieger op 5 januari 2025 07:31]

Platformverval, ook platformverloedering[1] (Engels platform decay, beter bekend onder de schuttingterm enshittification), is een term waarmee de degradatie of het afnemend nut van een online-omgeving voor de gebruiker wordt bedoeld.
Er worden nu modellen getraind met synthetische data. Een ander model genereert dan data, om een ander model te trainen (bijv om het te specialiseren of om het efficiënter te maken). Dit werkt goed.
Ik heb zelf ook wel wat omgepielt met synthetische data voor ML. Als je dit als ontwikkelaar goed controleert kan dit idd erg goed werken. Ik heb het voor objectherkenning toegepast met gerenderde plaatjes. Werkt echt super en scheelt zo veel tijd ivm de 'standaard' methode. (Fotos maken en handmatig annoteren)
Er worden nu modellen getraind met synthetische data. Een ander model genereert dan data, om een ander model te trainen (bijv om het te specialiseren of om het efficiënter te maken). Dit werkt goed.
Werkt goed, totdat er hallucinaties in kruipen. Een hallucinatie van model A vormt op dat moment een integraal onderdeel van de trainingset van model B, welke deze fout gaat internaliseren en propageren naar model C en D. etc.

Vergelijk het met inteelt en DNA afwijkingen.
Hoewel het door users publiceren en het door Facebook ook nog eens voorschotelen van heel veel onzin zwaar irritant is verbaasd het mij meer hoeveel mensen hier positief op kunnen reageren maar er zal wel weer een bedrijf voor ingehuurd zijn om likes en reacties te genereren hoewel ik ook geloof dat er genoeg mensen zijn die dit soort meuk fantastisch vinden.
Maar om op AI terug te komen, alles wat normaal slim werd genoemd moet nu ineens AI heten al is er niet eens sprake van een heuse AI. Ik snap dat het commercieel de betere term is maar betwijfel of het technisch wel de betere term is.
Niet iedereen zit op social media om alleen maar kennissen te volgen. Ze komen er juist ook voor de content van mensen die ze niet kennen, waarbij het algoritme ervoor zorgt dat het meestal enigszins in je straatje past (wat alleen lukt als je zelf ook actief zaken liked).
En dan volg je vanaf een paar dagen geleden AI gegenereerde users (waar je nu nog van kunt zien dat ze door AI gemaakt zijn maar dat label zal er vast snel vanaf gaan).. Bron: Meta’s AI-generated profiles are starting to show up on Instagram
Gelukkig voor ons is men onder Europese wetgeving vziw verplicht om duidelijk zichtbaar aan te geven dat het hier een nep profiel betreft dat door AI in elkaar gebatst is.

Hieraan kun je trouwens goed zien dat het Meta met Instagram en Facebook totaal niet meer om sociale media gaat in de zin van sociale verbintenis. Maar enkel en alleen om zoveel mogelijk oogjes aan hun advertenties te binden.

Lekker dystopisch.

[Reactie gewijzigd door R4gnax op 5 januari 2025 13:04]

Yep.. En helaas voor ons zal Meta er alles aan doen om er toch voor te zorgen dat die verplichting eraf gaat (of kijkt wat de beoogde boete is en deze alsnog aftikt als na hun interne berekening blijkt dat het genoeg oplevert ;) )
Helemaal eens. De "slimme" algoritmes die in diverse toepassingen mijn tijdlijn bepalen, maken vooral dat ik dingen mis die ik wel interessant vind maar misschien wat anders beschreven staan.

Een soortgelijke ervaring met bijvoorbeeld (online) meetings waarbij tekstueel wordt meegeschreven, wat redelijk gaat totdat er twee door elkaar gaan spreken of iemand stottert, maar de samenvatting bevat vooral de grote lijnen en een bijzin waaruit een beslissing volgt die wordt compleet gemist.
Alles eindigt een beetje op dezelfde manier. Welke 'sociale' nieuws of informatiesite je ook bekijkt, het lijkt allemaal op elkaar. Blijkbaar heeft de mens er behoefte aan.
Het is een beetje zoals met films of series, neem GOT. Het zou een vernieuwende serie zijn, maar het is een soort goede tijden, slechte tijden met een vikingsausje.
Zo is het ook met bv. Linkedin. Het is exact Facebook met allerlei onzinnige meldingen, met het verschil dat iedereen zijn best doet oom alles positief te doen laten lijken met veel cliché opmerkingen zoals 'geweldige nieuwe uitdaging' als iemand een andere baan moet nemen, omdat hij er bij de vorige werkgever is uitgetrapt.
Ook de forumsites, waarin een discussie over iets al snel in het persoonlijke wordt getrokken en men elkaar probeert de loef af te steken.
Het internet www2 en www3 zullen beide op hun eigen manier tot dezelfde shit gaan behoren, denk ik. Het is uiteindelijk allemaal een afspiegeling van de 'zinvolle' samenleving.
Hoop dat er een www3 komt, waarbij aan de voorkant reclame/commerciële niet is toegestaan, iedereen geregistreerd is en volledig transparant. En dat je je dan van het normale www kan afsluiten. Onlangs een kennis van mij die bijna volledig offline is gegaan. Geen smartphone, geen tablet, geen streaming, alleen nog een pc voor de belastingaangifte e.d.
puur om de bagger die binnenkomt.
Dus een internet waar je geen privacy hebt en waar bijna alles betalend zal zijn. Ja, dat gaat succesvol zijn.
Is de bagger waarover je het hebt dan reclame? Die krijg je toch ook te zien als je tv kijkt, een krant/tijdschrift leest of als je de deur van je huis uit gaat.

Als het gaat om de bagger van sociale media: dan kan je ook besluiten om daar niet aan mee te doen, toch?
Ik moet eerlijk bekennen dat ik, toen ik deze zin las, ook WW3 las.
WW3 Zal toch grotendeels op 't web worden uitgevochten?
Ik dacht ook eerst dat hij ww3 bedoelde. Tot ik veder las en dacht hij bedoelt vast iets anders :)
Hij typt 3 W's, geen 2.
Daarom begint hij ook met www3
World Wide War 3 :-)
Dit soort reacties hoeft natuurlijk ook niet. Zoals je ook in de comments kan lezen zijn er meerdere mensen die dezelfde fout gemaakt hebben als Danny, ik zelf heb het ook meer dan 1 keer moeten lezen voordat ik doorhad dat er 3x w stond ipv 2x.

En zo een fout lezen en daar commentaar op geven maakt het nog geen laster. In tegendeel zelfs, Danny begint net zijn zin met "Als je de zin begint met", wat je niet gedaan hebt waardoor de rest van zijn statement niet eens van toepassing is op jouw.

Maar als je er echt zo instaat, moet ik me toch echt afvragen of je niet per ongeluk een w te veel getypt hebt ...
Im maak er na die 2 jaar nog steeds geen gebruik van, Chatgpt nog nooit bezocht. Copilot in windows uitgezet.
Uiteraard zit in sommige producten verwerkt, waar je geen invloed op heb. Maar zelf bewust zoeken via deze machines nog nooit gedaan(Of plaatjes generen of iets).
We hebben niet zoveel aan deze opmerking als je er niet wat context bij vermeld. Wat houdt je tegen? Je hebt er kennelijk in je baan ook niets aan. Of ben jij de uitzondering tussen je collega's?
Ik heb er geen zin om het te gebruiken, ik kan prima mijn problemen zelf op zoeken via google of iets.
Plaatjes geneer ik sowieso nooit, ook niet voor de fun iets voor iemand ze verjaardag ofzo(Zoek wel een leuk gifje of plaatje via whatsapp of google afbeeldingen).
Het hele leven hoeft niet voorgekauwd te worden, je mag er zelf ook wel wat moeite voor doen :).

Voor mijn werk zou ik het prima gebruikt kunnen worden, naast veel administratieve dingen. Doe ik ook nog een netwerk onderhouden(Samen met nog 2 andere).
Als ik dan ergens niet uit kom ofzo, zou ik de vraag prima aan Chatgpt kunnen stellen(Waarom iets niet werkt bijv). Maar waarom ik kan het toch ook opzoeken?.

Verder ben ik meer van de oude stempel, ik heb ook geen digitale assistent als Siri/ Alexa / etc aan staan.
Ik kan geen lampen/ kachel/ deur etc bedienen zonder bij de schakelaar te staan(Of deur), wasmachine heeft geen app bediening(En anders zal ik het niet gebruiken).
Ik weet dat het er is, en hoe het een beetje werkt(Verschilt uiteraard per product). Maar zelf gebruik ik het niet.
Het is niet dat ik niks gebruik ofzo van nieuwe technieken, ik betaal dan wel altijd met mijn Apple Watch. Zoiets vind ik wel weer heerlijk in gebruik :).
Maar het hele smart home/ ai / digitale assistenten totaal geen interesse in.
U gebruikt misschien bewust geen Ai, maar u zoekt wel zaken op google. Er is natuurlijk geen harde grens tussen AI en geen AI en ook bij een zoektocht op google krijg je een hoop onzin en veel commercieel gepushte resultaten.
U klinkt als zo'n autonoom iemand, die 'off grid' willen leven, maar bij het eerste ongemakje naar een dokter gaan.
O nee hoor ik ga gewoon niet met elke hype mee, als ik het nodig vind, ga ik het wel een keer bewust gebruiken.
Hetzelfde voor Digitale assistenten als Siri/ Alexa etc, functies zitten overal op. Ik gebruik het gewoon niet, aangezien ik het nut er niet van in zie nog voor mijzelf.

Ik bekijk wel een beetje hoe iets werkt, zodat als het nodig is ik weet dat het er is.
Google gebruiken is AI gebruiken, dus het blijkt weer een glijdende schaal :)
En ik moet zeggen: ik ben werkzaam in de IT en als je zoals ik niet zo handig bent in het schrijven van (bijvoorbeeld) SQL scripts en dat ook niet zo vaak hoeft te doen, dan is die paar keer per jaar dat je het moet doen ChatGPT wel ongelooflijk handig. Ik kan nu in tien minuten een stukje SQL script schrijven waar ik anders minstens een uur zou moeten grasduinen door allerlei websites. En dan nog een brak SQL script hebben.
Ja ik ben dus ook werkzaam in de IT, en script/codes etc schrijven doe ik echt nooit.
Mocht het wel gebeuren dat ik dit ga doen een keer, kan ik altijd kijken als ik er niet uit kom. Om het dan aan Chatgpt of iets te vragen.

Maar ik ben gewoon niet zoals de meeste, oh weet iets niet of wil iets weten. Gelijk maar de vraag in ChatGPT of iets gooien en klaar.
Ik doe zelf liever eerst wat onderzoek, lukt het dan nog niet. kan het altijd nog via Chatgpt gevraagd worden :).
Maar ik ben gewoon niet zoals de meeste, oh weet iets niet of wil iets weten. Gelijk maar de vraag in ChatGPT of iets gooien en klaar.
Ik doe zelf liever eerst wat onderzoek, lukt het dan nog niet. kan het altijd nog via Chatgpt gevraagd worden :).
Het is niet altijd "goed" om niet te zijn zoals de meeste :)
Je kunt ook zeggen dat je collega's misschien ChatGPT hebben ontdekt om hun werk sneller en efficienter en beter te doen. Je moet ChatGPT gebruiken als tool om je werk te ondersteunen en dat werkt in veel gevallen erg goed. Het gaat uiteindelijk om het eindresultaat en in mijn geval lever ik beter werk, en sneller, via ChatGPT dan als ik dat zelf zou moeten opzoeken en uitvogelen.
Mijn ervaring met dat gedrag en wat ik ook bij anderen om mij heen zie, is dat je op die manier altijd die 10 minuten nodig hebt, waarbij, als je zelf gaat puzzelen, de eerste keer een uur nodig hebt en daarna ineens veel minder, omdat je ervan hebt geleerd. Maar het lijkt minder belangrijk gevonden te worden, dat je enigszins zelfredzaam bent.
Maar het lijkt minder belangrijk gevonden te worden, dat je enigszins zelfredzaam bent.
Dat is het beeld dat gecultiveerd wordt in kringen die moeite hebben met dit soort nieuwigheden. Het is een beetje raar argument omdat zelfredzaamheid letterlijk betekent dat je jezelf moet kunnen redden. Dus zonder hulp van anderen. Ik vroeg tot voor kort een collega om hulp en die schreef vaak delen van het script, waarna ik het afmaakte. Nu vraag ik een collega die ChatGPT heet en ik moet het nog steeds afmaken. Ik zie het verschil dus niet.
Daarnaast is het argument dat je de ervaring later opnieuw kunt gebruiken best valide, maar als snelheid en efficientie van belang zijn, dan *moet* je in een professionele omgeving vaak alle mogelijke tools gebruiken die er zijn. Of in situaties zoals ik die beschreef, waar je maar heel af en toe iets moet doen en die kennis niet beklijft totdat je het een volgende keer, soms maanden later, nog eens nodig hebt.
Zijn er hier ook Tweakers die LLMs lokaal draaien? Ik heb een beetje gehobbyd met Ollama en Open WebUI. Hiermee kan je verschillende opensource modellen lokaal draaien, zoals Llama van Meta of Qwen.

Je kan hier best leuke resultaten mee halen. Mijn 3070 met maar 8GB VRAM kan niet die grootste modellen aan, maar de kleinere modellen worden steeds beter.
Je moet er wel een beetje pc voor hebben, mijn ryzen 3700x met 3060ti kan het aan maar het is niet heel erg slim. Ik heb LMStudio, en had een model van hugging face wat net op mijn specs kon, maar de antwoorden die het genereerde (over c++ code) waren veel langzamer maar veel belangrijker: kwamen niet in de buurt van wat claude of chatgpt kan.
Dat ben ik met je eens. De kwaliteit van Claude 3.5 en ChatGPT 4(o) is veel beter. Maar voor wat simpelere taken, die je 2 jaar geleden ook met ChatGPT 3.5 kon, kan je nu ook lokaal.

Je loopt nooit tegen beperkingen en rate-limits aan als je het lokaal opzet. Daarnaast is het natuurlijk ook privacy-vriedelijker en betaal je geen abonnementskosten.

[Reactie gewijzigd door japie06 op 5 januari 2025 11:02]

Zijn er hier ook Tweakers die LLMs lokaal draaien?
Iedereen die de vertaalfunctie van Firefox gebruikt. :)
Met GPT4all, maar de snelheid is wel een dingetje.
Ah, een feestje is op zijn plaats! 🎉 Het is verbazingwekkend hoe snel de tijd vliegt. Twee jaar, dat is nogal wat. Laten we een virtuele toast uitbrengen op al het harde werk, innovatie en natuurlijk, plezier dat ChatGPT heeft gebracht. Proost op nog vele jaren van slimme en behulpzame gesprekken!

——-
Dit genereerde Copilot op jubileum van vriend ChatGPT 😉
CoPilot en ChatGPT zijn eerder broers dan vrienden, beide afgeleid van hetzelfde model / ontwikkeld uit OpenAI?

Op dit item kan niet meer gereageerd worden.