ChatGPT stopt met optie om chats door zoekmachines te laten indexeren

OpenAI stopt met een functie om ChatGPT-zoekgeschiedenissen door zoekmachines te laten indexeren. Het bedrijf draait een eerdere functie terug toen bleek dat ook gevoelige informatie in Google en andere zoekmachines verscheen.

Dane Stuckey, de CISO van OpenAI, schrijft op X dat het bedrijf een eerder uitgebrachte functie voor ChatGPT weer terugdraait. De chatbot kreeg vorige week een optie om specifieke chats indexeerbaar te maken voor zoekmachines als gebruikers die deelden. Het ging weliswaar om een opt-infunctie, maar verschillende media merkten op dat er sinds de release van die functie veel persoonlijke chats in Google leken te verschijnen. Daarbij is het niet ondenkbaar dat ook persoonlijke gegevens van gebruikers openbaar werden via zoekmachines.

Stuckey zegt dat OpenAI de indexfunctionaliteit inmiddels heeft uitgeschakeld. "Dit was een kortlopend experiment om mensen te helpen behulpzame gesprekken te vinden." Stuckey erkent wel dat de functie 'te veel mogelijkheden met zich meebracht waarop gebruikers per ongeluk dingen deelden die ze niet wilden delen'.

Stuckey benadrukt dat de functie opt-in was en dat gebruikers niet alleen actief een gesprek moesten delen, maar het vervolgens in dat deelvenster ook indexeerbaar moesten maken. De mogelijkheid om gesprekken te delen bestond al sinds 2023, maar de optie om die chat indexeerbaar te maken nog niet.

OpenAI werkt er volgens Stuckey aan om de chats ook te verwijderen uit zoekmachines, maar hij zegt niet hoe het bedrijf dat van plan is om te doen. Op Google levert de zoekopdracht site:chatgpt.com/share geen resultaten meer op, op Bing is dat nog wel het geval.

ChatGPT Share Bing

Door Tijs Hofmans

Nieuwscoördinator

02-08-2025 • 10:23

83

Submitter: r.kruisselbrink

Reacties (71)

71
67
28
5
0
25
Wijzig sortering
ChatGPT, de tool waarbij mensen zich ineens expert voelen. Bah!
De gemiddelde leek denkt inderdaad dat hij/zij met echte intelligentie te maken heeft. Helaas is het gewoon een biased praatpapagaai die nogal eens fouten maakt, gebaseerd op een grote fixed database snapshot van het web.

Ik gebruik het nu met regelmaat, en steeds meer zie je dat het gewoon een veredelde zoekmachine is. Doordat het zoveel lulkoek en fouten verteld, moet je constant waakzaam blijven en alles voor zoete koek aannemen.


Ook voor de meest simpele code snippets, werkt maar een paar % out of the box.

[Reactie gewijzigd door Marctraider op 2 augustus 2025 11:01]

Ik weet niet meer waar ik het heb gelezen maar een docent had een leuke opdracht voor de klas.

Laat ChatGPT een samenvatting schrijven over een onderwerp en controleer de samenvatting op fouten. Na 3 opdrachten maakten de leerlingen veel minder gebruik van AI vanwege alle fouten die zij hadden ontdekt in de samenvatting.

Een goede manier om duidelijk te maken dat AI niet foutloos is.
Ja nogal wiedes.
doe ff samenvatting pls
Gaat dan geheid de prompt zijn. Dat schiet voor geen meter op en dan krijg je bagger ja.

prompt engineering is belangrijk. Leerlingen nu van AI wegsturen is echt het domste wat je kunt doen. Leer ze dan hoe je goed gebruikt.


Een Taalmodel wat een slechte samenvatting maakt ligt gewoon echt aan je prompt
In het onderwijs proberen we je over het algemeen niet alleen technische gereedschappen te laten gebruiken, we proberen je denkprocessen te laten ontwikkelen. Denk je echt dat het er om gaat dat een leerling een specifiek boek gelezen heeft, of een specifieke samenvatting weet te produceren? Lezen en schrijven zijn gewoon belangrijke onderdelen van je leerproces. En waar "je huiswerk door iemand anders laten doen" altijd een probleem is geweest, maar op kleine schaal, ondergraaft het huidige massale AI-gebruik dit deel van het leerproces volledig. We hebben net al een generatie opgeleid met een aandachtspanne van nul, en nu zijn eindelijk telefoons uit de klas verbannen, krijg je dit gezeik weer. Leerlingen van nu van AI weghouden voor die leerprocessen is niet het domste wat je kunt doen, het is juist de grootste dienst die je ze kunt bewijzen.

Leerlingen moeten vooral leren hoe ze AI effectief gebruiken, maar niet ten koste van hun eigen ontwikkeling.
Leerlingen van nu van AI weghouden voor die leerprocessen is niet het domste wat je kunt doen, het is juist de grootste dienst die je ze kunt bewijzen.
Je moet leerlingen er op wijzen waarom dat zo belangrijk is en ze niet onder valse voorwendselen met een kluitje het riet in sturen. Ze zijn uiteindelijk slimmer dan je denkt en komen er zelf wel achter hoe je het dan wel in moet zetten. Net als dat wij vroeger geen wikipedia mochten gebruiken omdat "iedereen dat zomaar aan kan passen". dat is gewoon dom gel*l en dat weten we nu ook. Wikipedia gebruiken als start van onderzoek is dikke prima. Heel veel meer heb je niet ter beschikking namelijk op de lagere en middelbare school. Zijn namelijk geen academische instellingen met toegang tot Elsevier DB oid.

We zien nu al dat de volgende generatie developers een gigantische voorsprong gaat hebben op de huidige puur omdat ze gewoon andere denk patronen hebben ontwikkeld en daar nu de vruchten van plukken. We moeten AI juist correct in het curriculum gaan verwerken zodat er meer uit gaat komen wat ook echt nuttig is.

Net als dat wiskunde en Nederlands wordt gegeven is AI straks gewoon een onderdeel van de opleiding. Hier combineer je namelijk juist die twee zaken, Statistiek en semantiek. AI is juist een prachtige tool om precies die twee zaken te combineren in iets wat in de praktijk inzetbaar is voor vrijwel alles.

Prompt engineering is een vak apart en daar kunnen we beter zo vroeg mogelijk mee beginnen.


Het onderwijs loopt zoals gewoonlijk weer achter de feiten aan.

"Je hebt straks toch ook geen rekenmachine aan je pols hangen?"

Vrij letterlijk ja. ik heb er exact 1 om m'n pols, 1 in m'n broekzak ook wetenschappelijk.
we proberen je denkprocessen te laten ontwikkelen
ja nou ga doen dan! gebruik de tools die voorhanden zijn om beter begrip van taal te creeren. Mensen moeten straks met AI namelijk specifieker zaken beschrijven, mensen moeten prompts gaan finetunen voor het juiste antwoord. Vroeger was "leren googelen" daadwerkelijk een ding. Dat wordt nu dus "leren prompten" en dat gaat veel verder dan zo'n zoekveldje op google.nl
We zien nu al dat de volgende generatie developers een gigantische voorsprong gaat hebben op de huidige puur omdat ze gewoon andere denk patronen hebben ontwikkeld en daar nu de vruchten van plukken. We moeten AI juist correct in het curriculum gaan verwerken zodat er meer uit gaat komen wat ook echt nuttig is.
Aldus jouw onderbuik? De eerste (kleinschalige) onderzoeken rondom het gebruik van AI laten vooral zien dat men zich zelf als extra productief inschat terwijl ze minder productief zijn als je daadwerkelijk gaat meten en dat in hersenscans inmiddels zichtbaar begint te worden dat regelmatig AI het moeilijke denkwerk laten doen ten koste gaat van hersencellen.

Als langdurige onderzoeken soortgelijk resultaten gaan laten zien dan moet de volgende generatie developers hopen AI ze volledig overbodig maakt want het klinkt niet alsof deze mensen nog een zinnige toevoeging aan het proces gaan bieden.
Claude 3.5/3.7 Sonnet.
Dat is behoorlijk achterhaald ondertussen.


Het is een leuk onderzoek hoor, maar dit is dus precies wat ik bedoelde. Mensen die matig ervaring hebben met AI en met ervaring in software ontwikkeling. Dat is precies de combinatie die de volgende generatie niet heeft nog. Het is juist die “ik ben software ontwikkelaar” mentaliteit die zij nog niet hebben.

Ik probeer dat juist een beetje af te leren. Juist als je technisch gaat lopen voorkauwen komen er dingen uit die je juist niet wil. “Vibe coding” werkt juist beter als je het alleen functioneel houd.

Maar de nieuwe generatie met AI is een beetje hetzelfde als mijn generatie met react en andere frameworks zoals DevOps. Die paradigma verschuivingen zijn voor veel devs ook lastig geweest.

we zitten aan het begin van een revolutie op dat gebied en de ontwikkelingen gaan snel. Langdurig onderzoek heeft nu geen zin, zelfs kortlopend onderzoek is volgende week/maand al weer achterhaald met nieuwe start ups en modellen. Sonnet 3.5 of 4 is echt een wereld van verschil. agentic AI zoals GPT nu ook heeft geeft mij ook de mogelijkheid ok veel dieper op zaken in te gaan op bijvoorbeeld tweakers.net. Dingen waar ik niet altijd tijd voor heb.
Als je zelf weinig kennis hebt, brengt AI je maar beperkt verder. Fouten herken je niet en van overnemen van voorbeeld code leer je beperkt.

Zodra een taal complexer is, zie ik de waarde van co-pilot zakken. Binnen Visual Code en JavaScript of react werkt het prima, binnen Visual Studio en met C++ een stuk minder.

AI heeft voordelen, maar met voorkauwen heeft nog nooit iemand geniale zaken bedacht. Er is in dit opzicht denk ik niets nieuws onder de zon (over zeg 2 millennia)
Als je zelf weinig kennis hebt, brengt AI je maar beperkt verder. Fouten herken je niet en van overnemen van voorbeeld code leer je beperkt.
Overnemen van code is voor nu een leuke, maar over een paar jaar totaal irrelevant.

AI is nu al in staat om prima code op te leveren voor bepaalde doeleinden. co-pilot is momenteel nog een van de slechtere voorbeelden hiervan. Er zijn echt al betere modellen te vinden op de markt.

Ben er zelf echt serieus mee aan het experimenteren en ik zie nu veel beter waar de markt heen gaat. En dat is niet meer development zoals we dat kennen. Dat gaat echt een hele andere kant op. Requirements beter beschrijven en prompt engineering wordt gewoon onderdeel ervan.

Dat betekent dus ook dat de beheersing van Taal alleen maar naar een hoger niveau moet. vocabulaire wordt belangrijker dan ooit om nuances aan te brengen en om beschrijvend tot een verhaal te komen. Nu al zet ik meerdere modellen tegelijk in om tot prompts te komen die steeds specifieker gedrag beschrijven. Dat zijn zaken die je op school kunt leren. Het IS semantiek. Nederlands taal begrip en engelse woordenschat is daarin juist van belang.

AI inzetten voor iets irrelevants als een samenvatting maken van een YT filmpje leert juist nuttige vaardigheden op een techniek waar je in de toekomst niet meer onderuit kunt.


AI is voor deze generatie scholieren de "rekenmachine aan je pols" die wij hadden. NU om leren gaan met hoe je dat in moet zetten is van onmiskenbare waarde voor later.
Waarom zou het over een paar jaar irrelevant zijn voor overnemen van code? Uit je reactie lees ik dat AI zelf de code schrijft. Op grond waarvan denk je dat dat zo zal gaan worden?

En waarom zou je willen dat het zo gaat worden? Zou er geen redenen zijn om hierin toch eerst heel goed na te denken over de consequenties? En niet domweg omarmen van techniek die potentieel veel gaat kunnen (al denk ik dat het op dit moment fors overhyped is, maar dat is een andere discussie).
Uit je reactie lees ik dat AI zelf de code schrijft. Op grond waarvan denk je dat dat zo zal gaan worden?
Omdat dit nu al is wat er gebeurt. Ik ben nu aan het experimenteren met Lovable. Een kleine startup die net bestaat, maar ondertussen al een miljoenenbedrijf is geworden.
Stockholm-based Lovable has hit over $100 million in annualized revenue in just eight months by using AI to enable millions of non-coders to instantly turn their ideas into websites, apps and online side hustles.
https://www.forbes.com/sites/iainmartin/2025/07/23/vibe-coding-turned-this-swedish-ai-unicorn-into-the-fastest-growing-software-startup-ever/


Klinkt misschien allemaal heel hyperig, maar het heeft al behoorlijk wat systemen naar productie gebracht, dus dat het werkt is bewezen. Zonder bugs? Dat niet, maar dat is een ander verhaal.

voor eigen startup ben ik er ook mee bezig en wat ik in een paar uurtjes heb neergezet door gewoon wat ideeën te spuien is echt wel een nieuwe manier van werken. een protoype de deur uit doen kost normaliter dagen tot weken als het ook nog enigszins functioneel en gestyled moet zijn. Wat wij normaliter in twee dagen deden met een team van 5 in een hackathon doe ik nu in m’n eentje in een uurtje. En ik gebruik het net een week.


En ja ik wil helemaal niet dat het zo gaat, maar zo gaat het dus wel, en dus moet ik wel mee, want als ik het niet doe heb ik straks pech. Als dev kun je er maar beter volle bak in mee gaan en goed weten wat er gebeurt, want het kan zomaar ineens zijn dat er morgen weer een “next big thing” is wat al het andere eigenlijk “amateur hour” laat lijken.
Op die manier houden we elkaar wel gevangen en is een verdere doordenking wel lastig te realiseren. Daar wordt je niet blij van (waar ik ook wel de nuttige kanten van AI zie).
Als je GitHub Copilot bedoelt snap ik je opmerking niet goed die gebruikt juist andere modellen.
Er zijn ondertussen al weer veel gespecialiseerdere modellen commercieel verkrijgbaar. Copilot voor meer dan enkele methodes of als autocomplete werkt prima, maar zou er geen hele programmas mee opzetten nu.
Kan je voorbeelden geven? Want Claude Sonnet 4.0 of Gemeni 2.5 Pro geven toch heel degelijk resultaat mits een fatsoenlijke (system) prompt.
Ik gebruik nu lovable en ik merk dat dat echt veel meer productie ready code oplevert. Maar je moet wel goed beschrijven wat je wel en niet wil.


Ik denk dat ik de website van mijn start up volledig hiermee ga maken.


Het is alleen wel vooral frontend focussed. Weet niet of en hoe het omgaat met backend code nog. Dat heb ik self nog niet getest, want de backends die ik tot nu heb gebruikt waren edge functions in supabase. Dat werkt wel prima.
ja nou ga doen dan! gebruik de tools die voorhanden zijn om beter begrip van taal te creeren.
Beter begrip van taal en, waar je later naar vewijst, een uitgebreidere vocabulaire, leer je door te lezen, interpreteren, en schrijven. Niet door een tool zoals een AI te prompten dat werk van je over te nemen. Er is genoeg mis met het lees-onderwijs in Nederland, maar dit is 't niet. En als je zo'n expert bent op 't gebied van wat we kinderen moeten leren, dan kom je toch fijn zelf in 't onderwijs werken?
Niet door een tool zoals een AI te prompten dat werk van je over te nemen
Werk overnemen doet het hoe dan ook. Dat doet een rekenmachine ook. Etekent het dan maar dat je niet moet leren waarom iets zo werkt? Nee.

Betekent het dan maar dat je leerlingen weg moet duwen van technische vooruitgang omdat ze zelf nog geen idee hebben hoe hard het gaat? Nee.

Ai promoten is heel anders dan mensen uitleggen wat je wil. Dat is ook gewoon een vaardigheid die je moet leren.


Win hebben op school ook gewoon geleerd hoe je moet googelen, hoe je moet onderzoeken en hoe je bronnen gebruikt en hoe je dat dan weer controleert en verwerkt. AI hoort nu gewoon in dat rijtje thuis of je het nou wil of niet.
Leerlingen moeten vooral leren hoe ze AI effectief gebruiken, maar niet ten koste van hun eigen ontwikkeling.
Kijk dat vind ik dus een goed uitgangspunt. Het zou een aanvulling op moeten zijn. Maar er zijn er veel die het zien als een vervanger van de eigen intelligentie, met de insteek "we kunnen het toch niet stoppen". Je wordt er naar mijn mening echt niet slimmer van, van het te gebruiken. Je kan gewoon "goed zoeken" maar of de persoon die het gebruikt er ook daadwerkelijk wat van opsteekt, hangt nog altijd voor een groot deel af van de persoon zelf. Die moet nog altijd er wat van willen opsteken.

Er zit denk ik wel een groot risico voor het onderwijs in. Het materiaal dat de tool genereert kan totaal niet meer door de docent nagekeken zijn en het risico bestaat dus dat de gebruiker het allemaal maar gewoon voor waar aanneemt. Ik vergelijk het met influencers. Iedereen heeft nu met AI zijn eigen persoonlijke influencer die geen nee zegt, alleen maar bevestigd wat je wil.
Dooddoener dit, dit is altijd waar naar gegrepen wordt als een llm fouten maakt.
Tsja heel eerlijk, klopt tegenwoordig ook meestal wel.

Tot op heden ben ik uiteindelijk altijd op de antwoorden gekomen die ik had moeten krijgen (verifieerbaar juist). Betekent niet dat ik er niet eerst uren naast heb gezeten. Maar als je het eenmaal specifiek genoeg hebt kun je er goed mee werken hoor. Het ligt ook aan de context. Extractie van informatie uit iets werkt heel goed. Dingen genereren is een ander verhaal.


Vandaar dat ik zei dat ik het raar vond dat een samenvatting maken niet goed ging. Juist datgene doet het heel goed mits je er de juiste context en opdrachten aan geeft. Ligt ook erg aan het model.
"Prompt engineering" is een veredelde term voor een opdracht intypen, waarmee menig AI-gebruiker zichzelf beter wil laten voelen dan hij/zij daadwerkelijk is. Je bent met het typen van een complexere opdracht niet gelijkwaardig aan een expert die bijvoorbeeld 6 jaar gestudeerd heeft in een bepaald vakgebied.

Daar komt bij dat, zoals keer op keer wordt aangetoond, dergelijke taalmodellen fouten maken en hallucineren, ongeacht de kwaliteit van de prompt. Dat is een fundamenteel probleem met AI puur door de manier waarop het werkt, en daar kan je moeilijk onderuit.

Ook wordt er nergens gesproken over het wegsturen van leerlingen van AI, maar worden ze er juist op gewezen dat het niet allemaal zo'n geweldig concept is als sommigen denken.
Écht dit he... Dit soort mensen die zichzelf "prompt engineer" noemen kan je straks inhuren via LinkedIn om een lezing te geven voor je bedrijf, vol met wollige tech-praat dat alleen maar interessant klinkt voor leken.
Die mensen die dat straks op linkedin hebben staan, zullen daar een prima verhaal bij hebben. Ik zie in ieder geval dat het werkt.

Zeker zal er fluff bijzitten, maar ga het maar eens proberen. Zul je zien dat je resultaten echt beter worden en je betrouwbaardere antwoorden krijgt. Het is echt niet raar dat je je opdracht refined, doe je met Agile werken ook continu.
Je bent met het typen van een complexere opdracht niet gelijkwaardig aan een expert die bijvoorbeeld 6 jaar gestudeerd heeft in een bepaald vakgebied.
Dat hoor je mij ook niet beweren.

ik ben er alleen wel van bewust dat ik als software dev een heel andere kijk moet gaan hebben op hoe ik software ga ontwikkelen. AI vereist nog steeds kennis, maar je moet ook duidelijk kunnen verwoorden wag je wel en niet verwacht van het model. Daarom dat taal en woordenschat van onmiskenbare waarde zijn bij het geven van een opdracht.


Het ding is alleen dat je vaak niet in 1 keer de juiste opdracht meegeeft, en dan krijg je inderdaad hallucinaties. Dat is dus wat prompt engineering is. Het daadwerkelijk finetunen van je opdracht.


Iets wat in normale agile termen normaliter gedaan wordt in een refinement, maar dan voor AI.
maar worden ze er juist op gewezen dat het niet allemaal zo'n geweldig concept is als sommigen denken.
Door mensen die echt werkelijk waar geen idee hebben hoe het concept werkt en wat het doet. Dat is dan gewoon moedwillig de boel de boel laten omdat je niet weet hoe het werkt. Dus dan mogen leerlingen er ook geen gebruik van maken.
"Prompt engineering" is een veredelde term voor een opdracht intypen, waarmee menig AI-gebruiker zichzelf beter wil laten voelen dan hij/zij daadwerkelijk is. Je bent met het typen van een complexere opdracht niet gelijkwaardig aan een expert die bijvoorbeeld 6 jaar gestudeerd heeft in een bepaald vakgebied.
Prompt engineering is dan ook gewoon een term die is uitgevonden om het complexer te laten lijken dan het is. Zoals je zegt, je wordt er echt geen expert van vandaag op morgen. Je kan misschien goed zoeken en dat is ook een kunst zoals je ook met google moet leren werken, maar een expert? Verre van. De term is gewoon een vervanger voor "ik heb het opgezocht in een encyclopedie" (jaren 90 stijl), of "ik heb het gegoogled" (jaren 2000+).

De eerste die op zijn cv zet "prompt engineering" doet bij mij alle alarmbellen afgaan in ieder geval.

[Reactie gewijzigd door Powerblast op 3 augustus 2025 20:57]

Ik vind ChatGPT niet te vergelijken met Bv Claude Sonnet. ChatGPt is steeds meer een soort Toyota Aygo aan het worden, bedoeld om de meest simpele taken en doelen over te nemen of te ondersteunen, vol met nannies die denken wat je nodig hebt. Leuk voor je oma of tante mien uit tjalk. Je kan er leuk mee kletsen maar de intelligentie zeker van 4o ondanks de snelheid, is een 3-jarig kind. open AI wil er denk ik een soort Iphone achtige usercase van maken, allemansvriend voor otto normalverbaucher. Zelfs o3 is aan het verstompen.

Dan heeft Claude veel meer waarde. Bredere context. het is veel meer een AI dan het standaard riedeltje van chatgpt 4o.

Maar de ontwikkelingen gaan snel bij alle modellen en merken. Over 2-3 jaar herken je ze niet meer. Mogelijk is bv het komende chatgpt 5.0 veel beter maar na mijn eerste enthousiasme ben ik flink genezen van chatgpt. Zelfs de custom ''instructies'' zijn geen instructies maar een soort wishlist en worden soms volledig genegeerd, doet chatgpt steeds het tegenovergestelde wat jij wilt ""om te helpen"". Ook de dure o3 modellen lezen niet alle bestanden helemaal maar maken summaries en dus volledig onbruikbaar voor accuraat werk. Dat heeft Claude veel beter. Dus als je kids inlicht over AI, zeg er wel bij dat ze nu een demo van chatgpt gezien hebben.

[Reactie gewijzigd door Rene44 op 2 augustus 2025 16:31]

Belangrijk met GPT modellen is dan ook prompt engineering van wat je niet wil dat ie doet.


Ik werk nu veel met de verschillende GPT modellen en het eerste wat ik als regels meegeef is dat ze niet moeten gaan meehelpen, en dat we alleen willen werken met volledige bestanden en geen samenvattingen. Er wordt niets verwacht anders dan expliciete instructies. Als dingen niet bestaan dan moet dat gewoon teruggeven worden en niet dan maar zelf ingevuld of geschat.
maar omdat dat tegen de core instructie van 'moet helpen, geef zoveel mogelijk opties"" kan je die instructie zelfs in een directe chatwindow niet 100% gebruiken. vaak na 3 of 4 keer gaat ie gewoon weer"zal ik dit of dat doen'' erbij zetten. Overigens doet Claude dat ook - je kan niet basis gedrag 100% uitzetten omdat dat is waar die Ai LLMs voor geschreven zijn. Ik hoop dat we in d elooop van d etijd meer keuze krijgen zeker in professioneel gebruik wil ik meer strakkere gedragsregels kunne implementeren. Ik vraag A, AI geft me A en het blijft darabijen vraagt niet of ik B of C wil.
Chatwindows is leuk, maar ik ben bezig met API zaken en automation. Dan zijn dat gewoon system prompts die je door een ander systeem mee laat geven. Je verrijkt je user prompt dan met systeem instructies. Ook zodat je je data weer gestructureerd terug krijgt op een consistente manier.
Tsja. Allemaal dingen die je nog moet meegeven omdat de makers van de llm blijkbaar geen tijd hebben om het goed te doen.

Prompt engineering is een tijdelijk iets wat met een paar jaar overbodige kennis gaat worden (imho).
Nee dat denk ik niet. Je zult nog steeds goed moeten gaan omschrijven wat je wel wil en hoe je dat voor je ziet. Dat blijft gewoon nog.

net als dat we stories refinen voor dat ze een sprint in kunnen.
Ik zie ChatGPT als hulpmiddel en dat doet die heel goed met de juiste prompts invoeren.

Zie het maar als autonoom rijden, het meeste werk doet de auto zelf en jij corrigeert alleen af en toe.
Eindelijk! Het besef begint te komen dat we niet te maken hebben met enige vorm van intelligentie of begrip maar slechts met een betere versie van Google. Het is een mooi modern stukje gereedschap dat prima te gebruiken is, als je voldoende verstand hebt van waar je mee bezig bent. Het gaat geen banen overnemen, maar het gaat wel, voor sommigen in ieder geval, zorgen voor veranderingen.
Natuurlijk gaat het banen overnemen.Dat staat inndd sterren geschreven.

Dat wil niet zegen dat er op 123 minder banen zullen zijn. Machines in een fabriek zorgen ook voor efficientie en je ziet nu al dat veel tijdrovende processen zoals refactoren van code door AI worden ondersteund.
Het is waar dat AI sterke is bij repetitieve, controleerbare taken. Maar het is ook bekend dat AI in langere en/of complexere code bases in de problemen komt omdat het de overall context mist.

Hoe hoger de complexiteit des te groter het risico dat de AI verkeerde code aflevert. Ook zo met de lengte van de codebase.

Als het gaat om kleine, afgebakende gebieden dan is AI prima te gebruiken, maar zodra het gaat om iets complexere, of gewoon "veel", code gaat is er een niet onaanzienlijk risico dat het verkeerd gaat.

Een AI is heel goed in het opzoeken hoe functies en bibliotheken werken en zal er dus meestal voor zorgen dat de code die het produceert zal compileren, maar of het functioneel correct is, is uiteindelijk nog maar de vraag.

Misschien bespaar je 5 of 10 minuten aan een refactoring, maar vervolgens ben je 1 dag bezig met debuggen om uit te dokteren waar het spaak loopt. (De getallen zijn natuurlijk overdreven, ik bedoel het alleen ter illustratie).

Voor de dingen die ik al 100 keer heb gedaan heb ik geen AI nodig, maar op dit moment is dat het gene waar de AI in uitblinkt. Uit "luiheid" laat ik de AI wel eens de "boilerplate" doen, maar daar gebruiken wij normaal templates voor, dus het voegt daar niets toe uiteindelijk.

Voor die zaken die ik niet zo vaak doe, is het een zeer goede tool om informatie op te zoeken en ook om alternatieven te vinden. Maar op dit moment zou ik een refactoring nog niet over laten aan een AI. Je moet nog steeds elke regel code die het produceert onderzoeken op problemen. Je bent m.i. momenteel nog beter en sneller af om zelf die code in te typen, al dan niet met de AI voor auto-complete.
Het is waar dat AI sterke is bij repetitieve, controleerbare taken. Maar het is ook bekend dat AI in langere en/of complexere code bases in de problemen komt omdat het de overall context mist.

Hoe hoger de complexiteit des te groter het risico dat de AI verkeerde code aflevert. Ook zo met de lengte van de codebase.

Als het gaat om kleine, afgebakende gebieden dan is AI prima te gebruiken, maar zodra het gaat om iets complexere, of gewoon "veel", code gaat is er een niet onaanzienlijk risico dat het verkeerd gaat.
Dat is ondertussen iets waar ook gewoon aan gewerkt wordt. Een groot issue met AI nu is dat er gewoon maar een beperkte context meegegeven kan worden. Dus met een grote codebase bestaat er een kans dat de deel van de code gewoon. Iet in de context zit. Dan wordt het lastig inderdaad.


Met RAG (Retrieval-augmented generation) wordt dat issue eigenlijk ook weggewerkt en kun je veel meer context inzetten zonder dure hertraining. Daarmee kun je dus een model maken wat specifiek werkt voor jouw codebase zonder dat je daar half AWS voor hoeft af te huren om een nieuw model Te trainen.
Het is waar dat AI sterke is bij repetitieve, controleerbare taken. Maar het is ook bekend dat AI in langere en/of complexere code bases in de problemen komt omdat het de overall context mist.

Hoe hoger de complexiteit des te groter het risico dat de AI verkeerde code aflevert. Ook zo met de lengte van de codebase.
Je merkt het vind ik nu al in lower level talen, hoe lower level hoe slechter de code. Python, Java, C# snapt het nog redelijk goed omdat daar uit de statements nog redelijk wat high level context te leiden valt. Ga je de Rust toer op, waar ik het momenteel als personal teacher zeg maar wat voor gebruik, valt het door de mand.

Context? Het snapt in de verste verte niet wat je aan het bouwen bent maar plakt gewoon hier en daar wat statements aan elkaar. Ik heb nu al meer dan eens meegemaakt dat het snippets genereert die niet werken. Dan vraag je, waar heb je in godsnaam deze foutieve code vandaag. Krijg ik als antwoord: Ja, je hebt gelijk dat dit niet werkt. Daarom zijn er ook velen die overstappen op een andere library omdat deze slecht gedocumenteerd is... Nee, ik wil library X gebruiken, niet overstappen op een andere :D. Daaruit blijkt dus dat het geen context kan extracten en de code ook eigenlijk niet snapt. Want dan zou het op basis van docs en source code gewoon netjes code moeten kunnen genereren.

Code completion in bijvoorbeeld Visual Studio weet ik bijvoorbeeld niet hoe ze dat doen, maar die werkt wel verrassend goed. Zelfs uit gewoon woorden haalt het uit wat ik vervolgens als volgende statement wel ga typen.
Het is inderdaad gewoon woordvoorspelling. Maar ik moet wel zeggen dat als je Claude 4 Sonnet gebruikt, met goede context en nette basis om op verder te werken, je praktisch zelf geen code meer hoeft te schrijven (enkel architectuur uitdenken, business logica omschrijven en controleren). Dat zeg ik als programmeur met 20 jaar ervaring.

Belangrijk wel dan is dat je het model meeneemt in wat je doet, eventuele handmatige wijzigingen toelicht en de juiste context altijd (automatisch) meegeeft van je project.

Het is niet alsof je er niet bovenop moet zitten met wat je wilt, je moet in controle blijven. Maar als je geen goede resultaten behaalt, dan denk ik dat er nog wat winst te behalen valt met hoe je de tool gebruikt :)

Let wel op dat het verschil tussen Claude en GPT echt flink is in mijn ervaring. Claude is veel beter in code-achtige taken.
Eens, bij ons is iedereen om in Claude Code aansturen. Het denkwerk blijft bestaan, uitschetsen wat je precies wilt en je krijgt echt mooie code.

Wat ik soms beproef is een gehele aversie tegen AI, met dat het geen intelligentie heeft. Wellicht, maar het blijft wel een handige tool die in mijn geval veel tijd bespaard. Het is zeker inzetbaar (en dat zien bedrijven ook steeds meer, vandaar de investeringen). Wat ik met code doet, doet onze administratie met nakijken van mailtjes, of licht herschrijven.

Als ik benchmarks bekijk (en dan niet de publieke maar ook de gesloten), dan is het model wel steeds beter getraint om de juiste output te geven op vragen, en heeft hij het dus steeds meer bij het rechte eind.
Claude genereert ook veel betere grafieken onder andere.

Claude is in gebruik dan ook significant duurder dan GPT. Zeker Opus 4.
Maar ik moet wel zeggen dat als je Claude 4 Sonnet gebruikt, met goede context en nette basis om op verder te werken, je praktisch zelf geen code meer hoeft te schrijven (enkel architectuur uitdenken, business logica omschrijven en controleren). Dat zeg ik als programmeur met 20 jaar ervaring.
Ik ben zelf nu aan het experimenteren met Lovable. Ben zelf DevOps engineer met wat UI/UX/FE ervaring, maar absoluut geen held, maar hiermee kan ik best functioneel omschreven krijgen wat ik wil en dat in no time als prototype uitgewerkt hebben. voor 25 per maand om een demo product te bouwen is dat echt niet gek.


De ontwikkelingen gaan echt rap
De gemiddelde leek denkt inderdaad dat hij/zij met echte intelligentie te maken heeft. Helaas is het gewoon een biased praatpapagaai die nogal eens fouten maakt, gebaseerd op een grote fixed database snapshot van het web.
Klinkt een beetje zoals de gemiddelde mensenkennis. Misschien dat ik hiermee de mensheid onderuit haal, maar zolang ChatGPT en aanverwanten minstens dat gemiddelde niveau heeft (of vaak hoger) en context heel goed kan onthouden, onvermoeidbaar is, snel is en met stapjes naar hogere niveau's wordt getild en het mij vooruit helpt, zou ik niet meer makkelijk zonder kunnen.

Dat is tenminste hoe ik dit soort AI-ontwikkelingen zie en het gebruik van ChatGPT enzovoorts. De meeste mensen doen ook maar hun best en denken ergens verstand van te hebben, terwijl zoiets als ChatGPT daar heel erg goed mee kan concurreren. Mensen geven ook vaak hun persoonlijke draai aan allerlei kennis/feiten.

Om daarmee af te sluiten op je laatste punt dat je van wie dan ook, mensen, computers nooit alles voor zoete koek aannemen.

[Reactie gewijzigd door Tjeerd op 2 augustus 2025 14:03]

Kleine tip van de sluier: Hij programmeert niet, hij flanst dingen aan elkaar.
hij flanst dingen aan elkaar.
The art of googling stackoverflow.
ChatGPT, de tool waarbij mensen zich ineens expert voelen. Bah!
Leuk dat iemand dit zegt, maar is dat niet juist het hele punt?

Voor het eerst hoeven mensen niet meer te doen alsof ze alles weten of urenlang door PDF's te ploegen om een antwoord te vinden.
  1. De student die wiskunde eindelijk snapt.
  2. De ouder die z’n kind kan helpen met huiswerk zonder stress.
  3. De hobbyist die eindelijk dat programmeerprobleem oplost zonder 12 uur StackOverflow.
Noem het: zich expert voelen, ik noem het toegang tot kennis zonder je dom te voelen.
En ja, soms zegt ChatGPT ook onzin, maar hé, zelfs echte experts praten elkaar soms na zonder het te checken toch?!

Misschien is het tijd om minder bah te roepen en meer te vragen: hoe gebruiken we dit slim?
Want als technologie je een beter gevoel kan geven over wat je wél snapt, is dat toch een win?
Noem het: zich expert voelen, ik noem het toegang tot kennis zonder je dom te voelen.
Dit heeft natuurlijk verschillende perspectieven, maar ik heb regelmatig als ik iets aan het debuggen ben dat het gewoon mijn eigen schuld blijkt, óók als ik een LLM vraag. Volgens mij is dat ook niet per se een slecht iets, want "ik zou beter moeten weten" is een normaal en gezond gevoel, gebouwd op de wens om dingen te begrijpen.
In al je voorbeelden mist de weg naar het leren van leren. Een hobby programmeur is niet 12 uren bezig met StackOverflow door te spitten; die is zichzelf aan het ontleden, en leert onderweg beter debuggen, en andere relevante dingen die niet zijn overwogen. De volgende keer dat die een fout tegen komt door eigen toedoen ziet die nu in dat het wederom komt door een fout in eigen denkwerk; als die een AI had gebruikt had die dat nooit geleerd, en zal er een oneindig aantal uren worden verspild door het een LLM te vragen die niet slim genoeg is om de gedachte achter codebase te begrijpen.
En ja, soms zegt ChatGPT ook onzin, maar hé, zelfs echte experts praten elkaar soms na zonder het te checken toch?!
Dat is absoluut niet hetzelfde. Een geïnformeerde en doordachte fout is niet hetzelfde als een taalmodel dat een verkeerd woord voorspelt: een expert zal je nooit vertellen om lijm op je pizza te doen, die fout maakt het gewoon niet. Bij een LLM is dat simpelweg hoe het systeem werkt. Dat kun je monkeypatchen, maar hallucineren is gewoon onderdeel daarvan.
Want als technologie je een beter gevoel kan geven over wat je wél snapt, is dat toch een win?
Nee, want het is een leugen. ChatGPT in het bijzonder is getuned om je een goed gevoel over jezelf te geven, tot soms erg nare gevolgen.
ChatGPT ruilt begrip in voor psuedorealistische slop, en het heeft uiterst veel vertrouwen in eigen woorden.
Klopt, ChatGPT kan zelfverzekerd onzin verkopen, maar dat maakt de gebruiker nog niet willoos.
Als jij een weg wil oversteken, kijk je toch ook eerst links en rechts? Precies zo werkt het met AI: je checkt, je weegt, en dán beslis je.

Het is ook niet óf 12 uur StackOverflow doorspitten of 2 minuten een AI vragen. Het kan allebei.

En ja, soms kletst het model wartaal, maar hé… Google Translate klonk ooit alsof Yoda Nederlands had geleerd: “Naar supermarkt ik ga, honger ik heb.” Nu is het een standaardtool waar niemand meer omheen kan. Technologie leert, en wij leren mee.

Wie blind een AI volgt, is net zo slim als zonder kijken een snelweg oversteken en dat loopt zelden goed af.
maar dat maakt de gebruiker nog niet willoos
Dat is niet het punt dat ik maak in mijn reactie. Het punt is dat een AI je overtuigend voor kan liegen, en de meer je het gebruikt, de meer je daar in tuint (via o.a. confirmation bias). Meeste mensen hebben al problemen met het identificeren van nepinformatie online en deze machine is er op gemaakt om de gebruiker het gevoel te geven dat de informatie klopt ("want meestal klopt het", "klinkt logisch", etc).

Mensen gaan die afweging waar je het over hebt helemaal niet maken. Misschien de gemiddelde tweaker, maar veel mensen interesseert het niet, wéten niet hoe een LLM werkt, en dus ook niet op wat voor manier ze fouten kunnen maken. "Maar ChatGPT zei" is het nieuwe "maar het heb gestaan op Facebook". Zo van cool, kan interessant zijn, maar je moet vanaf het moment dat iemand dat zegt al meteen sceptisch zijn.
En ja, soms kletst het model wartaal, maar hé… Google Translate klonk ooit alsof Yoda Nederlands had geleerd: “Naar supermarkt ik ga, honger ik heb.”
Deze vergelijking raakt kant noch wal. Je implicatie is dat LLMs "beter" worden door de komende jaren, en daardoor minder fouten gaan maken, maar dat is niet meer dan het eerder genoemde monkeypatching. De 'verbeteringen' in LLMs zijn niet dat ze meer zijn gaan redeneren, maar enkel de injectie van meer tekst waardoor het *lijkt* alsof deze redeneert. Dat helpt (want het creëert meer context), maar een LLM gaat er niet opeens door denken. Al deze 'verbeteringen' veranderen niks aan het onderliggende concept van een LLM.
De piek van wat een LLM kan doen is overigens al bereikt; het internet is leeggescraped, en dat was de grootste bron van verbeteringen binnen die wereld.
Nu is het een standaardtool waar niemand meer omheen kan.
Klinklare onzin. Venture capitalists willen graag dat je dit denk zodat ze het in hun producten kunnen stoppen en de prijs verhogen, maar dat je er niet om heen kan is gigantische onzin. Je kunt nog steeds dingen zoeken op het web, je kunt nog steeds andere mensen in je werkveld vragen om hulp; daar kun je prima mee uit de voeten. Een LLM is in die zin ook niet meer dan een goeie fuzzy zoekmachine.

In mijn ervaring is de kwaliteit van publiekelijk beschikbare code er niet bijzonder beter op geworden de afgelopen jaren, en het gebruik van een LLM wordt ook niet verplicht gesteld in open-source kringen. Wat productiviteit betreft is dat wel een goede litmus test (werkgevers en midden-managers tellen niet, die zouden aan astrologie doen als ze het idee hadden dat het misschien kon helpen).
Een wetenschappelijke rekenmachine denkt ook niet. Toch moet er niet aan denken om alles met een telraampje te doen.
Ik ga niet ontkennen dat LLMs nut kunnen hebben in verschillende implementaties, maar vind het wel wat ver gaan om het zo essentieel als een rekenmachine te noemen 🙃
Ik geloof enkel de AI boeren niet zo maar, ik blijf kritisch naar alles kijken, altijd gedaan. Mij lijkt het nog altijd 50/50 kans dat het stagneert en dat het blijft bij wat het is. Een tool die je voorthelpt zoals er al velen zijn ontstaan.

Ik heb ook geen glazen bol dus kan het niet zeggen. Las een tijdje geleden wel dat de vooruitgang vertraagt, wat in mijn ogen niet zo een goed teken is. We zijn eigenlijk nog maar net vertrokken met de AI vooruitgang en het vertraagt al.
Dat mag je natuurlijk doen en vinden, maar ik denk dat we nu wel op een punt zijn beland dat we wel moeten inzien dat het niet meer zomaar blijft zoals het was.


Ik stond er vier weken geleden ongeveer ook nog zo in totdat ik echt geen kijken wat er mogelijk was. En dan komen dingen als Manus, Lovable en de Chat Pro/Plus echt wel heel anders uit de verf dan een gemini in eerste instantie aan resultaten gaf op google search.

ik grijp daar nu ook steeds vaker wel naar omdat het steeds beter wordt en vaker wel correcte zaken oplevert.


Als ik zie wat voor vette dingen ik in anderhalve dag neerzet met lovable, supabase, n8n en de verschillende modellen, dat is echt wel andere koek dan 3 jaar terug.
En ja, soms zegt ChatGPT ook onzin, maar hé, zelfs echte experts praten elkaar soms na zonder het te checken toch?!
"De wetenschap zit er ook wel eens naast" is niet het sterke argument dat je denkt dat het is.
Voor het eerst hoeven mensen niet meer te doen alsof ze alles weten
Waar héb je het over? In welk scenario moet je doen alsof je alles weet, in plaats van daadwerkelijk veel te leren over iets?
Ik zit al een tijdje op het internet, ergens middennjaren 90…. Dat mensen zich expert voelen op een netwerk is al jaar en dag aan de gang, dat is niet anders dan 10, 20 of 30 jaar geleden. Wat het nu anders maakt zijn twee dingen

1): de media roep toetert maar wat graag mee en doet niet altijd aan factchecking..

2) het gebruik van chatgot maakt het lastiger en kaf van de koren te scheiden als het gaat verhalen die de waarheid is ingeslingerd. Verhalen klinken beter voor de gemiddelde mens (niet voor de expert) en dus geloven mensen de zogenaamde ‘experts’ sneller…
Ongetwijfeld zullen mensen het zich persoonlijk aantrekken dat ChatGPT ze complimenteert over hun prompt, eventueel kun je natuurlijk in je systeem bericht dit gedrag aanpassen. Maar in principe vind ik het goed standaard gedrag, omdat het je wel aanmoedigt om meer te vragen.

In principe is ChatGPT juist een goede tool om meer informatie te leren (bijvoorbeeld met de nieuwe studie modus). Je moet het natuurlijk wel blijven toetsen met de praktijk (via werk of onderwijs), aangezien generatieve AI soms fouten maakt.

Maar ook experts kunnen productiever worden met behulp van large language models. Die hebben ook sneller door wanneer de output niet klopt.
Eerder de tool die op vrijwel alle gebieden een (soms iets te zelf overtuigde) expert is.
ChatGPT, de tool waarbij mensen zich ineens expert voelen. Bah!
Da's projectie. Alles draait om de kwaliteit van de prompt en om het vermogen van de gebruiker om de output op waarde te beoordelen en om gerichte feedback te geven en door te vragen. Voor wie dat kan - en als ik deze discussie lees geldt dat voor heel veel gebruikers kennelijk niet - is ChatGPT een zeer nuttige sparringpartner.
Dat klopt echt niet. Ze voelen zich niet expert, het voelt eerder aan alsof je een expert hebt als vriend. Als je een expert hebt als vriend dan is het normaal dat je dit als argumentatie gaat gebruiken als je iets probeerd uit te leggen. Net zoals je refereerde naar een woordenboek, zal je dan referen naar chatgpt. Gelet op het feit dat AI nu aan het puberen is op maar 2 jaar tijd, zal over 2 jaar het zeker volwassen zijn.

Maar het is dus niet alsof de mensen zichzelf slim voelen.
Chatgpt is niet perfect, maar wel handig. Kritisch blijven denken blijft noodzakelijk.
Wat vreselijk dat mensen dit bewust aanzetten zonder zich bewust te zijn van what the fuck ze aan het doen zijn.
Make conversation discoverable
Dit is ook wel veel te vaag, er staat niet eens dat zoekmachines het kunnen vinden! Ik heb afgelopen week niets gedeeld, stond er nog iets meer bij ter info?
Ambigue is dat niet hé. Als je shared en tegelijkertijd ook nog eens zegt dat het gevonden mag worden door anderen, dan ligt dat aan jezelf.
Iets met, iets met dat mensen blindelings doorklikken zonder te lezen wat er staat.

Dat is wat ik weleens zie gebeuren.
Ondertussen gebruiken zij wél zoekmachines om informatie boven water te krijgen.. Leuk man, eenrichtingsverkeer
Ik zou gewoon graag die AI zever op zoekrobotten kunnen uitzetten, ik kan ondertussen al lang kaf van koren scheiden en die AI zit er ook wel soms flink naast!
Op DuckDuckGo kun je het gewoon uitzetten. Evenals advertenties, trouwens.
Ik ga geen grote corporaties beschermen, maar conclusie van dit verhaal:
Mensen zijn dom en klikken op whatever opties ze zien zonder te snappen wat het doet.
Opt-in is tegenwoordig al niet meer genoeg om ervoor te zorgen dat mensen het massaal aanzetten zonder na te denken XD

Op dit item kan niet meer gereageerd worden.