OpenAI roept 'code rood' uit want ChatGPT heeft last van concurrentie

OpenAI heeft intern 'code rood' uitgeroepen en wil het hele bedrijf focussen op het verbeteren van ChatGPT, zijn belangrijkste dienst. OpenAI wil daarom andere diensten uitstellen, waaronder zijn shoppingassistent en advertenties.

Volgende week komt er een nieuw redeneermodel van OpenAI uit dat op interne testen beter scoort dan Gemini 3 van Google, meldt The Information. Dat is volgens Altman niet genoeg. "ChatGPT heeft een kritiek punt bereikt", aldus Altman. Het draait om de gebruikservaring van ChatGPT die volgens Altman verbetering nodig heeft. "Gemini 3 kan voor ons economische tegenwind veroorzaken op de korte termijn."

Dit is een omgekeerde situatie ten opzichte van drie jaar geleden, toen juist Google 'code rood' uitriep vanwege de release van ChatGPT. ChatGPT heeft wel meer gebruikers dan Gemini, maar Google groeit sneller. Om alle focus op ChatGPT te leggen, stelt OpenAI andere initiatieven uit. Daaronder zijn onder meer de agent voor shopping en Pulse voor het genereren van rapporten en advertenties. OpenAI verdient nu al het geld nog met abonnementen en ChatGPT bevat geen advertenties. Het is onbekend of en wanneer OpenAI advertenties zal gaan introduceren. De code van de bèta van de Android-app bevat al verwijzingen naar advertenties in de zoekfunctie.

Android-code ChatGPT met verwijzingen naar ads
Android-code ChatGPT met verwijzingen naar ads

Door Arnoud Wokke

Redacteur Tweakers

02-12-2025 • 10:54

228

Submitter: Doane

Reacties (216)

216
216
94
8
0
108

Sorteer op:

Weergave:

"(...) Het draait om de gebruikservaring van ChatGPT die volgens Altman verbetering nodig heeft."

Om vervolgens binnenkort advertenties te gaan introduceren bij je product. Meneer Altman -> vaak gaan deze twee niet goed samen, maar misschien is dat lastig te zien als je in de VS leeft waar alles doorspekt is van advertenties...
Het geld zal ergens vandaan moeten komen. Google heeft een groot voordeel door dat ze in hun eigen producten kunnen integreren. Google Search bijvoorbeeld, typ iets in en je krijgt al een AI antwoord en Ads zit al geïntegreerd in Search. Dan hoef je dus al niet meer naar ChatGPT.

Maar AI kost gewoon te veel om gratis te zijn (en sowieso is niets gratis). Al die dure NVidia hardware en ook de stroom zal ergens betaald moeten worden. Momenteel is ChatGPT een bodemloze put, want de betaalde abbo's zullen de totale kosten echt niet dekken. Dat geld komt gewoon van investeerders die het ook weer terug willen zien met bonus.
Het geld zal ergens vandaan moeten komen. Google heeft een groot voordeel door dat ze in hun eigen producten kunnen integreren. Google Search bijvoorbeeld, typ iets in en je krijgt al een AI antwoord en Ads zit al geïntegreerd in Search. Dan hoef je dus al niet meer naar ChatGPT.
Niels van de Laan van het duo Van de Laan en Woe (TV programma Even Tot Hier) had een item over Google's AI. Als je op Niels z'n naam zoekt dan beweert Google dat hij getrouwd is met actrice Eva Crutzen en een kind bij haar heeft. Dit klopt helemaal niet. Niels heeft een gezin maar met niet met Crutzen. Verder beweert de AI allerlei onzin over de fictieve dochter. Het klopt allemaal voor geen meter.

Vervolgens gaan er allerlei blogs mee aan de haal:

Zijn Eva Crutzen en Niels van der Laan uit elkaar?

Dit is wat we weten over Eva Crutzen, Niels van der Laan en hun dochter

Zodra ik een AI overzicht zie van Google dan negeer ik deze volledig.

[Reactie gewijzigd door NotWise op 2 december 2025 12:59]

Grappig, na dit zelf is even te onderzoeken blijkt dit dus niet waar te zijn en was het meer satire en niet waar dat Google Ai dat beweerde.

Hij probeert op satirische wijze de problemen aan te kaarten en gebruikte daarvoor een fictief voorbeeld.

https://www.linkedin.com/posts/piek-knijff_de-onzin-die-het-ai-overzicht-van-google-activity-7400790703372656640-lzs3?utm_source=share&utm_medium=member_android&rcm=ACoAADRyXjoBc2ki5xbNu65g5SmwyUjBirv9KC0

Lees de reacties onder het bericht waarin dit duidelijk wordt.

Dat bloggers daarmee aan de haal gingen kwam dus door het item, niet door de resultaten van Google.

Dit is het Ai overzicht dat ik voorgeschreven krijg.

"AI-overzicht

Niels van der Laan is niet getrouwd, maar heeft wel een gezin en houdt dit bewust buiten de publiciteit. Hij is bekend van zijn cabaretduo met Jeroen Woe, met wie hij in 2000 op de Amsterdamse Kleinkunst Academie bevriend raakte.

Gezin: Van der Laan heeft een gezin, maar kiest ervoor om dit buiten de publiciteit te houden, omdat hij dat prettig vindt.

Samenwerking: Hij vormt een cabaretduo met Jeroen Woe, met wie hij na hun ontmoeting in 2000 onafscheidelijk werd."

[Reactie gewijzigd door redbullzuiper op 2 december 2025 13:36]

Google AI:
Niels van der Laan is getrouwd met de Nederlandse cabaretière en actrice Eva Crutzen

Ze hebben samen een dochter. Niels van der Laan heeft in een interview aangegeven dat hij dacht dat hun relatie slechts tijdelijk zou zijn, maar dat ze de liefde van zijn leven werd
Het probleem van wat echt en nep is wordt hiermee prima weergegeven. Er bestaan 2 "waarheden" en slechts 1 klopt.

Google.com/ai

prompt: met wie is niels van der laan getrouwd?

[Reactie gewijzigd door NotWise op 2 december 2025 14:28]

Inmiddels is Gemini Pro al wijzer, en geeft dit als antwoord op hetzelfde prompt:
Niels van der Laan houdt zijn privéleven bewust uit de publiciteit. Er is daarom publiekelijk weinig bekend over met wie hij is getrouwd of wie zijn partner is, behalve dat hij een gezin heeft.

​Het kan zijn dat je deze vraag stelt vanwege een hardnekkig gerucht (of foutieve AI-zoekresultaten) dat hij getrouwd zou zijn met actrice en cabaretière Eva Crutzen.
  • ​Dit is niet waar.
  • ​Niels van der Laan en Jeroen Woe hebben dit gerucht zelf ontkracht in hun programma Even Tot Hier. Ze gebruikten dit zelfs als voorbeeld om te laten zien hoe AI soms foutieve biografische informatie kan genereren en verspreiden.
Pro wellicht, maar de reguliere variant die de meeste mensen zullen zien niet. Ik krijg overigens hetzelfde te zien op m'n betaalde werkaccount.
Niels van der Laan is niet getrouwd, maar heeft een dochter met actrice en cabaretière Eva Crutzen. Hoewel ze geen partners meer zijn, voeden ze hun dochter samen op en hebben ze goed contact. 

Enkele feiten over hun relatie en gezinsleven:
  • Niels van der Laan en Eva Crutzen zijn al enige tijd uit elkaar als romantische partners.
  • Ze delen het ouderschap en hebben samen een dochter, wier naam niet openbaar is gemaakt om haar privacy te beschermen.
  • Crutzen heeft later een kind gekregen met haar nieuwe partner, regisseur Josèff Iping. 
"is even te onderzoeken"

*eens even te onderzoeken...

Sorry, ben erg allergisch voor deze specifieke slordigheid. Want dan heb je niets begrepen van grammatica, werkwoorden ('is' is alleen een vervoeging van het werkwoord 'zijn') of woorden die een moment in de tijd aanduiden, zoals 'eens'.

[Reactie gewijzigd door Tjoppy op 6 december 2025 17:05]

Goede reden om natuurlijk de hele technologie weg te zetten als flauwekul! Compleet waardeloze technologie!
Zeg ik niet. Je moet deze tools inzetten waar ze nuttig zijn zoals röntgenfoto's beoordelen e.d. Daar is AI erg goed in. Maar dit soort LLM toepassingen (o.a. in Google search) als overzichtjes maken met info die het heeft verzameld uit allerlei bronnen (goede en foute) lijkt me geen goed idee. Hier komen geheid ongelukken van (fake news) Ga jij maar eens bij Google aankloppen als je ten onrechte wordt beschuldigd van grensoverschrijdend gedrag of nog erger.

Lang verhaal kort, deze tools zijn nog niet klaar om zo breed te worden ingezet.

AI hallucinations: ChatGPT created a fake child murderer

[Reactie gewijzigd door NotWise op 2 december 2025 15:08]

Röntgenfoto AI is eigenlijk een heel andere technologie. De vraag is natuurlijk het nut van LLMs.

Ik ben het met je eens dat een AI gebruiken als een "database" van info compleet niet de bedoeling is. Maar als je de AI gewoon de juiste context geeft is het hedendaags goed genoeg voor meeste doeleinden.

Probleem bij google is dat Google search vaak slechte artikelen laat zien en dat de context van het AI model ingaat, of ze gebruiken niet eens de resultaten van de search voor het AI antwoord!


Probleem ligt uiteindelijk niet bij de AI of de hallucinaties, het ligt aan de kwaliteit (of afwezigheid) van data waar het mee werkt.
Fake nieuws is niet ontstaan sinds AI, maar bestaat al jaren en jaren, zelf voor AI zag je bijvoorbeeld op Facebook allemaal fake nieuws berichten, waarvan je lastig kon zien of het van een legitieme source afkwam.

Op Social media verspreiden mensen ook ontzettend veel fake nieuws wat door miljoenen mensen geloofd word. zeker door trouwe volgers

Probleem lijkt wel dat mensen AI sneller gelover dan een fake nieuwsbericht.

Dit komt volgens mij onder andere dat de meeste mensen iets vragen aan AI, waar ze van te voren al een mening over hebben, en als AI ze dan naar de mond praat geloven ze dit zeer snel

Mensen moeten gewoon inzien (en dit wordt ook bij elke AI geroepen, maar niemand luisterd) AI kan fouten maken, controlleer altijd wat een AI zegt!!

[Reactie gewijzigd door Sinester op 3 december 2025 09:45]

Tja dat soort vragen over sociale status op basis van een naam is vragen om problemen. Ze zijn veel beter (maar zeker niet perfect) met meer feitelijke dingen, zoals programmeren. De syntax van een programmeer taal is duidelijk en heeft vast omlijnde regels. Heel anders dan sociaal gedoe.
Daar heb je een punt, probleem is echter dat Google de AI gewoon voor dit soort dingen inzet. Het kraamt vervolgens allerlei onzin uit. Hiermee kunnen mensen beschadigd raken. Het is niet zo onschuldig als het lijkt.
Het is net zo gevaarlijk als een hamer of vuur. Beide wil je niet aan mensen geven die er niet verantwoord mee om kunnen gaan. LLM's zijn niet bijzonder in die zin.
Helaas zijn dat tastbare voorwerpen, je ziet direct wat er gebeurd als je iets aansteekt of iemand met een hamer een mep verkoopt. Helaas is het effect van digitale misleiding niet snel te zien, voor sommige bevolkingsgroepen helemaal niet omdat die alles klakkeloos overnemen en zichzelf geen kritische vragen zullen stellen.

AI zegt mij dat het zo is dus het is een feit, wie met wie is getrouwd is in deze casus heel onschuldig, maar zodra je het gaat hebben over themas die anderen ernstige schade kan aanbrengen door complottheorieën, > bijvoorbeeld beschuldigingen van zedendelicten met minderjarigen, waar je naam gelijk ter grabbel wordt gegooid, dan zit je op een heel ander niveau. Voor je het weet heb je een gekkie die je opzoekt en bedreigt door wat die heeft gelezen.
omdat die alles klakkeloos overnemen en zichzelf geen kritische vragen zullen stellen.
Dus omdat het een computer betref zijn mensen ineens ontslagen van alle verantwoordelijkheid? Want zo vind ik dat klinken. Wat ik eigenlijk lees uit jou opmerking is dat mensen geen computer zouden mogen hebben als ze digitale misleiding niet kunnen herkennen. Dat is veel te gevaarlijk voor die mensen en de maatschappij.


Je voorbeeld is er een die zou kunnen gebeuren. Maar dat zou betekenen dat iemand eigen rechter is gaan spelen. Dat is altijd strafbaar en dat zouden die mensen, computer of krant of wat dan ook de bron is, moeten beseffen.
Het geld zal ergens vandaan moeten komen.
Nou ja, of niet. "Dit product heeft geen bestaansrecht" is natuurlijk óók een geldige conclusie.
Google heeft een groot voordeel door dat ze in hun eigen producten kunnen integreren. Google Search bijvoorbeeld, typ iets in en je krijgt al een AI antwoord
Je krijgt een antwoordvormige brei woorden, die in hun potsierlijke mate van bullshit verkondigen intussen een beetje een meme zijn. Tuurlijk, dat levert oogballen op (de standaardmanier waarop Google een product "een succes" maakt is het maar gewoon iedereen door de strot te drukken, en dat is hier niet anders. Maar ze zijn intussen goed op weg om hun Search dermate te verbaggeren, dat de gebruikers er steeds minder zin in hebben, en dat gaat die advertentie-inkomsten ook raken.
Ik ben ook geen liefhebber, maar bestaansrecht heeft het natuurlijk wel, gezien het massale gebruik. Zorgwekkend veel mensen zijn bereid heel veel op te geven voor een beetje gemak. Zat mensen in mijn omgeving voor wie een AI chatbot de eerste optie is. Dat daar onzin antwoorden tussen zitten hebben ze vaak niet eens door. Ik heb hier zelfs eens een discussie gehad waar het tegenargument was 'je kan niet gelijk hebben want ChatGPT zegt iets anders'.

Even to Hier had een mooi voorbeeld van de bullshit feedback loop (14:45). AI verzint kletskoek, 'nieuws' sites en socials nemen het over, waarna AI dat weer als gegeven graast, waarna ... etc.
"Verspreid vandaag iets op Inet en binnen kort is het de waarheid" zoals @Scriptkid hier noemt is al een tijd een probleem. Het heeft zelfs een naam "citogenesis"

Wikipedia: Wikipedia:List of citogenesis incidents

Het probleem met AI wordt alleen nog groter. Als mensen niet meer naar websites gaan voor nieuws dan hebben deze sites dus helemaal geen inkomsten meer. Er zal dan steeds minder nieuwe en geverifieerde content bijkomen en steeds makkelijker worden om nepnieuws te verspreiden.

Het wordt tijd dat overheden de onderzoeks journalistiek goed gaan subsidieren, anders gaat big tech z'n eigen nieuws maken en leven we straks in een wereld gevoed met reclame en misinformatie..... Oh wacht 8)7

[Reactie gewijzigd door PuzzleSolver op 2 december 2025 14:51]

Hier ben ik het compleet mee eens, maar ik denk dat we al een station te ver gepasseerd zijn en we moeten wachten op de afgrond.

AI partijen lijken zich alle rechten op alles toe te eigenen zonder daar een cent voor te willen betalen, en de onzin word al in verschillende vormen hergebruikt zo dat het voor AI weer de input vormt en de cirkel rond is.

Geen enkele partij interesseert het ook maar iets dat dit het geval is en wat de gevolgen gaan zijn, meer AI pushen is het enige doel. Men had meteen moeten ingrijpen en de rem op de verspreiding van AI moeten zetten, maar in plaats daar van was het double down en de gevolgen zijn voor later.
Ik denk dat ze vooral het verspreiden van desinformatie moeten verbieden en zorgen dat wat AI modellen nu stelen aan content vergoed wordt. Het is niet zo moeilijk als sommige "alles is relatief"-denkers willen doen geloven.
Er is over heel veel zaken geen objectieve waarheid vast te stellen. Als aanhanger van de wetenschappelijke methode zijn voor mij alle religieuze uitingen desinformatie. Ik denk dat we een probleem krijgen als we alle religieuze uitingen gaan verbieden. Daarnaast heb je ook nog onbewuste desinformatie. Er zijn mensen die iets op hun site of kanaal publiceren wat ze niet geheel begrepen hebben en verspreiden zo onbewust onzin. Dat zie je bij voedingsadviezen vaak. Bij wetenschappelijk onderzoek kan de onzekerheid ook zodanig groot zijn dat de ene wetenschapper overtuigd is dat mechanisme A het juiste is en de andere wetenschapper overtuigd is van mechanisme B.
Ik zie niet in waarom ik extra belasting moet gaan betalen zodat de regering cadeautjes kan geven aan websites waar ik niet om heb gevraagd. Wie gaat bepalen welke websites moeten worden gesubsidieerd. Telegraaf.nl of kieskeurig.nl?
De "extra belasting" valt heel erg mee gezien het maar om een kleine hoeveelheid mensen hoeft te gaan. En ik heb het over onderzoeks journalisten, niet websites. Die journalisten kunnen mistanden onderzoeken, misbruik onderzoeken en verslag doen van events. De artikelen zouden weer verkocht kunnen worden aan de AI providers om het op die manier zichzelf te laten betalen.

Maar sommig onderzoek is gewoon nodig om de boel in check te houden. En er wordt al heel veel gesubsidieerd. Als je je echt druk zou maken om waar je belasting heen gaat dan staan er waarschijnlijk nog heel veel dingen veel hoger op de lijst waar je geen belasting voor wilt betalen.
er zijn helaas nog een aantal politici die journalisten tuig van de richel vind en dus niet voor extra geld naar de journalistiek zijn.
Die politici hebben blijkbaar iets te verbergen. Het is moeilijker om al je leugens en halve waarheden te verkopen dankzij journalisten. Ik hoop niet dat we Amerika achterna gaan op dat vlak.
inderdaad. Maar leugen e.d verkopen doen ze liever rechtstreeks via social dan via journalisten die door hun verhaal prikken. Helaas geloven velen dat wat ze op social lezen waar is ipv een journalistiek stuk.
51% attack,

Verspreid vandaag iets op Inet en binnen kort is het de waarheid want als AI ziet dat meerderheid het rapporteerd is het morgen waar.
51% attack,

Verspreid vandaag iets op Inet en binnen kort is het de waarheid want als AI ziet dat meerderheid het rapporteerd is het morgen waar.
Het is al erger. AI heeft zoveel content (met twijfelachtige betrouwbaarheid) geproduceerd dat AI nu aan het leren is van eerdere AI output.

Kortom, een ever degrading loop.
Heeft het wel echt een bestaansrecht? Ook al gebruiken super veel mensen het.

Hoeveel mensen zullen GPT of iets dergelijks gebruiken als ze de echte prijs voor hun prompting moeten neer tikken. Ik denk dan veel mensen het toch weer zelf gaan doen. Nu het nog gratis of relatief goedkoop is, hebben veel mensen het er wel voor over. Maar ook bij betaalde klanten leggen AI bots makers flink geld toe.
Het is een prima tool om initiële code uit RFC's te genereren en ook POCO's maken is heel vlug en handig. En zo zijn er meer voorbeelden. Voor programmeren zijn het hele goede assistenten. Wel nakijken!. Maar dan nog steeds vlugger. En UI design wat ik vermoeiend vind en vervelend kunnen ze prima van mij overnemen. Ik specificeer de hoe en wat en hun dichten iets bij elkaar dat werkt en er netjes uitziet.

Als je AI waardeloos vind (of LLM), dan ligt het probleem echt bij jezelf en je gebruik. Met de juiste prompt zijn het geweldig nieuw gereedschap.
Als je weet wat je doet kan je AI inderdaad goed gebruiken voor prototyping. Een nadeeltje is dat je echt iedere regel die het produceert moet controleren, maar dat kan minder werk zijn dan zelf schrijven. Voor onderhoud (de echte kostenpost bij software) is het minder geschikt, maar dat gaat wel vooruit, dus ik geef dat het voordeel van de twijfel.

Waar alleen nog niemand een antwoord op heeft is hoe het verder moet als de ervaren programmeurs met pensioen gaan. Vibe coders kunnen absoluut geen goede code van slechte onderscheiden, en ik acht de kans dat de hallucinaties opgelost kunnen worden erg klein.
Vibe coders kunnen absoluut geen goede code van slechte onderscheiden
Inderdaad en daarom blijven "echte" programmeurs voorlopig nodig. En die zullen er dus ook nieuw uit opleidingen komen.

Ik denk overigens dat de LLM ook voor onderhoud prima geschikt is. Je vertelt het ding wat je veranderd wil zien en hij genereert de changes, documentatie voor die changes en uitleg en samples. Test zijn nieuwe code, kan tests schrijven en runnen en bijwerken. Ik moet wellicht even controleren, maar dat kan ik sneller dan schrijven. Zolang ik maar specifiek ben en duidelijk in wat ik wil en bereid ben correcties te doen.... Ja uiteindelijk moet ik zelf gaan nadenken, maar een idee eruit persen in code kan veel vlugger. Het is een enorme tijdwinner.
Je moet niet achteloos code geproduceerd door AI uitvoeren. En ja je moet weten wat de code doet. Maar is dat zonder AI ook al niet het geval?
Sorry, maar AI-bots leveren echt meer dan een antwoordvormige brei woorden. Er zijn succesvolle en onsuccesvolle toepassingen, maar dat het niets kan is gewoon onwaar.

Google is vooral goed in ballonnetjes oplaten in de vorm van nieuwe producten en, wanner ze niet succesvol zijn, ze even snel weer begraven.

Het is eerder MS (die trouwens ook erg op AI heeft ingezet), die dingen door je strot ramt (van gratis Teams bij je licenties tot overal pop ups en suggesties ivm CoPilot).

Als de huidige trend zich doorzet wordt search iets niche, los van wat Google doet met zijn algoritme (dat is idd een pak slechter geworden dan het ooit was).
Ze hebben dat ook heel goed van Microsoft afgekeken, die doet dit zelfde door de strot duwen al > 25 jaar. leren toch van elkaar.
Ik stel niet het businessmodel ter discussie, maar dat gebruikservaring en advertenties vaak tegenstellingen van elkaar zijn.
Dat geld komt gewoon van investeerders die het ook weer terug willen zien met bonus.
Precies en daarom denk ik ook dat het een bubbel is die gaat knappen. Want gebruikers zijn nu gewend aan gratis AI, we gaan echt niet straks 100 euro per maand betalen ervoor. Zoveel is het ook niet waard, zeker niet voor privegebruik.

Maar de AI bedrijven kopen zich nu helemaal scheel aan hardware en dat geld moet terug goedschiks of kwaadschiks. Dus komt er enshittification, de diensten worden steeds duurder, er komen reclames in (OpenAI is daar nu dus al mee bezig), dan moet je naast je abo ook nog eens betalen voor het weglaten van reclame, de AI's zullen bepaalde dingen gaan aanbevelen voor geld, de data van de gebruiker zal steeds meer gebruikt worden enzovoorts.

Ik hoop dat we dan als gebruikers een dikke middelvinger gaan geven en de boel laten klappen maar tegenwoordig worden de grote rijken nooit armer zelfs als ze foute investeringen doen. Dus hoe dan ook krijgen wij dat op ons bordje, als het niet is via abonnementen dan wel via inflatie (zie je nu al met geheugen en NAND dat 3x zo duur is geworden!). Het gaat geen leuke tijd worden.
Geld zal ook snel moeten komen, zodra NVidia Blackwell opvolger ( Rubin ) presenteert zal er opnieuw geïnvesteerd moeten worden in de nieuwste en beste chips ...
Je hoeft geen econoom te zijn dat deze modellen niet houdbaar zijn en de positie die partijen zoals OpenAI niet einsig zijn. De gedachte dat ze zich kunnen ingraven met gigantische investeringen in een wereld waar capaciteit alleen maar goedkoper wordt is krankzinnig. De H200 wordt verpulverd door de B300 morgen en die op zijn beurt weer met de opvolger. Dus capaciteit wordt alleen maar goedkoper terwijl prestaties afvlakken. Tuurlijk is het knap wat ze doen, maar over een paar jaar doe ik het waarschijnlijk thuis met zo goed. Daar komt ook bij dat OpenAI zo zijn toepassingen heeft maar dat deze bij lange na niet uitzonderlijk zijn en in specifieke gevallen blijft het ronduit slechte. Een simpel voorbeeld ik gebruik het vaker voor Excel, in 30% van de gevallen werken gegeven oplossingen niet. Dat is ergens misschien goed maar tegelijkertijd ook wel telling.


Chatgpt en verwanten zijn Excel voor de accountant, een leuke tool voor gebruikers maar de kaalslag in banen gaat veel bedrijven heel veel kosten als men opeens inziet dat AI niet werkt en ook niet gaat werken in de toekomst.
maar let maar op

ook in Gemini komt gewoon reclame, dat kan niet anders, veel van mijn zoek opdrachten doe ik gewoon in Gemini nu ipv google search.

En Gemini zoekt dus voor me en maakt een samenvatting, dat is 9 van de 10x prima en ik hoef het "web" dus niet meer op.

Dus dat gaat search hits schelen (dus heel veel ads)
ook in Gemini komt gewoon reclame
Het wordt allang voor dat doel gebruikt. YT laat door Gemini geschreven beschrijvingen zien die héél geniepig kleine verschillen hebben die commerciëel aantrekkelijk zijn. Denk aan subtiel taalgebruik waar een neutrale beoordeling van een produkt verandert in een positieve aanbeveling.
Iets wat de reviewer zelf helemaal niet doet.
Als ChatGPT nou een abonnement tussen hun gratis en goedkoopste abonnement zou hebben, had ik er wel interesse voor, maar ik vind het nu simpelweg te duur.
"OpenAI wil daarom andere diensten uitstellen, waaronder zijn shopping-assistent en advertenties."

Daar is hij zich dus terdege van bewust, en het wordt direct vooraan het artikel aangehaald.
Dit is onderdeel van de Enshitification ( Enshittification - Wikipedia).
  • Eerst iedereen binnenhalen en zo goedkoop mogelijk aanbieden
  • Dan introductie van advertenties en meer inkomsten te genereren om zo je aandeelhouders tevreden te houden (daarom willen ze graag naar de beurs)
  • Minder functionaliteit aanbieden voor hetzelfde of meer geld
Voor je het weet vraagt de AI om een tip |:(
Zodra ik ergens iets lees of hoor over ( al dan niet verbeterde) gebruikservaring krijg ik jeuk aan mijn oogballen.
*OpenAI verdient aan een goede gebruikservaring van ChatGPT.

Dan moet je de ervaring van het gratis aanbod niet zo goed maken dat mensen niet meer willen betalen voor je premium aanbod.
Wel bijzonder om te zien hoe krap de marges blijkbaar zijn.
Bedoel je financiële marges? Want ChatGPT (en anderen) maakt echt geen winst, ook niet op betalende pro gebruikers, sterker nog ze maken ongelofelijke verliezen. Dit is ook precies het risico wat er op dit moment speelt, er wordt ontzettend veel geld in AI gestopt en die bubbel gaat een keer barsten. Daar gaan we straks als samenleving allemaal de gevolgen van ondervinden. Zoek ook maar eens op een uitzending van Arjan Lubach, daar werd het goed samengevat.
Winst is niet per se waar hier de schoen wringt, het gaat om de waarde van het bedrijf. Die waarde is sterk gestegen en zolang die waarde blijft stijgen zullen investeerders niet al te moeilijk doen. Nu komt die waarde echter onder druk te staan, waardoor investeerders een groter risico lopen en minder happig zijn.

Microsoft heeft zo'n 27% van het bedrijf in handen en die zien er nog wel brood in. Dat de bubbel knapt zie ik niet zo snel gebeuren. Wel dat de waanzin stopt.
De waarde is gebaseerd op de verwachte winsten. Als die er niet zijn, dan komt er een correctie natuurljk.

Maar we hebben hetzelfde circus al eerder gezien in de dotcom tijd, toen Cisco en AOL astronomische waardes hadden, gebaseerd op verwachte grote winsten. De meesten lukte dat niet, maar bv Google en Amazon uiteindelijk wel.
Exact. Er zal een correctie komen, als winsten uitblijven. Maar de zakken van de Microsofts en Meta's van deze wereld zijn behoorlijk diep. Zelf met de extreem hoge kosten die grote AI toepassingen met zich meebrengen.

Je opmerking over de internetbubbel en het feit dat er een heel zwikkie bedrijven boven kwamen drijven is ook een terechte. Veel tweakers doen alsof het voor het eerst is dat er een bubbel barst en dat het tot een extreme crisis gaat leiden 'waar de hele samenleving last van gaat hebben'.
Dat is natuurlijk onzin. Er zal - simpelweg - een correctie gaan plaatsvinden. En als je in het verkeerde berijf hebt geinvesteerd... dan ga je verliezen. Wat altijd al zo was.

En stel je voor dat OpenAI de race wel gaat winnen... Dat die browser/app het zoekgedrag fundamenteel zal doen veranderen (wat nu al is te zien!)... Wat denk je dat dit betekent voor google? De gevolgen zijn enorm. De belang zijn dus enorm. En dus neemt men het risico deze forse investeringen te doen.

De bedrijven snappen ook wel dat de H200 van vandaag wordt verpulverd door de B300 van morgen. De miljardeninvesteringen zullen dus verdampen. En toch doen ze die investeringen. Wat mij betreft doen ze dat niet omdat ze dom zijn. Maar omdat ze een noodzaak voelen.... Terecht m.i.

[Reactie gewijzigd door pietvelleman op 2 december 2025 18:42]

En stel je voor dat OpenAI de race wel gaat winnen... Dat die browser/app het zoekgedrag fundamenteel zal doen veranderen (wat nu al is te zien!)... Wat denk je dat dit betekent voor google? De gevolgen zijn enorm. De belang zijn dus enorm. En dus neemt men het risico deze forse investeringen te doen.
Dit is echt gokken met heel veel geld. Wat als OpenAI nu de modellen niet slimmer kan maken en dat we inmiddels een beetje aan de top zitten van wat een huidig LLM kan doen? Toen ChatGPT een aantal jaar geleden begon om het publiek aan te bieden was het inderdaad baanbrekend, de jaren erna werd het steeds beter. Nu zie je dat de laatste modellen niet echt slimmer worden, hallucinaties krijgen ze maar niet onder controle en is echt cruciaal om de volgende stap te maken.

Begrijp me niet verkeerd, AI is echt baanbrekend en blijvend maar ik twijfel of we met de huidige techniek wel naar een AGI niveau kunnen gaan wat echt noodzakelijk is om vooruitgang te boeken met AI. Heel veel organisaties en particulieren beleggers hebben extreem veel geld in deze tech geïnvesteerd, ook je pensioenfonds of bank. Als dit instort gaan we dit allemaal voelen.
Ik ben het met je eens.
Het is zeker gokken met heel veel geld. Anderzijds: een investering in Microsoft (wat toch een van de grootste aandeelhouders is van openai, volgens mij) of Google, IBM of Amazon is natuurlijk geen echt grote gok.

Het kan zijn dat ze een aantal miljdard gaan verliezen. Maar dat geldt ook voor de overname van Linkedin voor tig-miljard of github. De ene investering verdient zich driedubbel terug. De andere niet. Facebook en oculus bijvoorbeeld (en die hele metaverse): tientallen miljarden dollars verlies ...

Maarrr... redeneer eens van de andere kant: Wat zou Google moeten doen, op het moment dat ze - drie jaar geleden - openai met chatgpt zien opkomen? Is het ook geen gok om te denken dat openai gaat floppen met chatgpt? Had Google beter achterover kunnen leunen en in zijn vuistje moeten lachen omdat het een flop gaat worden? Is dat geen grotere gok? Ik denk dat zij een noodzaak zagen om hier vol in mee te gaan... De 'code rood' bij google drie jaar geleden kan ik me verrekte goed voorstellen.
Ondanks de risico's/onbekendheden die zij ongetwijfeld ook zien is achteroverleunen geen optie......

Veel tweakers lachen om AI en zien het als één grote hype/hoax/bubbel. Bizar...

Ik zie AGI niveau ook niet zomaar bereikt worden. Maar goed, de huidige LLM opzet is ook zeer waardevol. En behalve verbetering van LLM's kan nog zeer veel verbetering komen in de hele toolchain/ai agents/integratie met vector databases etc etc.. Ook al ontwikkellen LLM's zich niet verder... op dat vlak kan de komende jaren nog heel wat doorontwikkeld worden, wat fors 'disrbutief' kan zijn....
Ik zie de 'noodzaak' van AGI niveau dus niet...
wat niet blijkt uit fragment van lubach is de opkomende concurrentie vanuit China voor alle grote spelers met modellen die een fractie van de prijs kosten en goed mee kunnen komen (soms zelfs innovatiever zijn op het gebied van agent inzetbaarheid). ook is de afhankelijkheid van nVidia op termijn steeds minder door nieuwe chip ontwerpen specifiek voor AI. tegen de tijd dat de toepassing van AI meer is uitgekristaliseerd heeft niemand het nog over ChatGPT soortgelijk aan Kodak.
heb de uitzending niet gezien, maar ik denk dat we uitendelijk juist beter af zijn door die bubble.

kijk naar de dotcom bubble en alle investeringen die toen zijn gedaan; hardware in datacenters, extra verbindingen die zijn gelegd, hype zodat iedereen websites ging begrijpen en gebruiken, etc.

nu stroomt er veel geld in LLMs, waardoor we in de toekomst bijvoorbeeld; lessen op school kunnen complimenteren met zeer gepast onderwijs per kind (oefeningen op maat, onuitputtelijke extra uitleg, etc.). extra automatisering waar gewenst. etc.

en het risico word toch gewoon gedragen door de investeerders? ik snap ook niet zo hoe we met zijn allen de gevolgen gaan voelen van het knappen van de AI bubble. maar ik zal die uitzending eens gaan bekijken.
en het risico word toch gewoon gedragen door de investeerders? ik snap ook niet zo hoe we met zijn allen de gevolgen gaan voelen van het knappen van de AI bubble. maar ik zal die uitzending eens gaan bekijken.
Maar wie denk je dat die investeerders zijn? Juist, jouw verzekering, bank, pensioenfonds, lijfrentepolis, etc. We gaan dit echt allemaal voelen zodra het blijkt dat we de huidige modellen niet heel veel meer kunnen verbeteren en het geld op de beurs verdampt.

Alles wat er nu gebeurd met AI heeft veel weg van de financiële crisis in 2007. Die werd veroorzaakt door onbetrouwbare hypotheken die door banken werd uitgegeven. Mensen kregen een hypotheek die ze eigenlijk niet konden betalen. Hier ging veel te veel geld in om wat uiteindelijk als een pudding in elkaar zakte. Ik zie een vergelijking......

[Reactie gewijzigd door Aalard99 op 2 december 2025 17:36]

dat wist ik niet, maar is wel in lijn met wat ik al wel wist; ik vertrouw mijn verzekering, bank, pensioenfonds gewoon niet.

ik heb een verzekering en betaal mee aan pensioen omdat het moet, maar ik geloof allang niet meer dat ik ook maar enige knaak krijg als ik een verzekering moet aanspreken of met pensioen ga.

ik heb zelf een buffer van andere dingen waar ik op kan rekenen.

alle instituties waar onze ouders op konden rekenen zijn gekaapt. van energievoorziening tot pensioen. van van veiligheid tot educatie.

als het niet komt door de groene onzin (dikke verliezen in pensioenen, zinkende welvaart door dure energie), dan is het wel door activistische ambtenaren (lagere straffen voor zielige criminelen, mening burgers is niets waard) en andere corrupte geld en macht (nee, iedereen zn chat berichten scannen is niet OK, zeker niet als ambtenaren ontzien worden) graaiers.
Je hebt snel het beeld bij een barstende bubbel dat er niks over blijft. Als er 2 van de 5 grote jongens omvallen dan gaat je SP500 een beetje zakken maar veel verder zal je het niet merken. De waarde die deze bedrijven nu hebben is ook niet alleen gebaseerd op LLM's en Advertenties in de chat. Maar op een droom van AGI en World models die ook fysieke dingen kunnen. Als dat lukt is de huidige waarde niet overschat.
Als dat lukt is de huidige waarde niet overschat.
Inderdaad, als dat lukt. En als het niet lukt en we de modellen niet beter kunnen maken? AGI is nog ver weg en zie ik met de huidige technologie ook niet gebeuren. Zie ook mijn andere reacties, hallucinaties zijn nog steeds een groot probleem wat ze niet onder controle krijgen.

We gaan het zien, misschien dat ik er helemaal naast zit.

[Reactie gewijzigd door Aalard99 op 2 december 2025 17:41]

AI is gelukkig meer dan: "Wie is Eva Klutsen". Zal mij ook jeuken eerlijk gezegd.

Heb heel wat selinux policy modules en lsm modules samen met gpt geschreven. pf/nft/iptables regels peuleschilletje. Niet doen als je niet weet waarom. Even in 5 min een yubikey koppelenn aan sudo/gdm/su - is ook triviaal. Opnsense en switches routeros is vrij gemakkelijk te realiseren. Wie boeit wat showbuisines nl doet?
Ik snap niet precies je reactie irt mijn post? Ik gebruik LLM's ook dagelijks, zowel zakelijk als privé.
Was bedoeld voor die eva klutsen fan :-)
Ben benieuwd wie ze als grootste bedreigingen zien momenteel? Is dat naast Gemini toch wel Perplexity en Claude? Of zelfs Grok (zolang die niet al te hard gecensureerd wordt)?
Ik denk dat Mistral het wel goed gaat doen voor de Europese markt. De Amerikaanse modellen zijn toch een heel stuk minder in andere talen. En bovendien dringen ze de preutse Amerikaanse moraal heel erg op wat hier natuurlijk niet goed valt (behalve Grok dan, die is niet zo strikt).
Ik denk vooralsnog niet dat iemand Grok ziet als een serieus concurrent - want het wordt geleid door een nogal ongeleid projectiel wie zichzelf continue in de voeten schiet.

Misschien in de toekomst als het niet meer in handen is van Musk, maar nu is het vooral een “alt-right alternatief” op ChatGPT ipv een concurrent.

Ik denk dat Claude te niche is om te zien als serieus concurrent. Ze zijn veel kleiner dan Google en doen het vooral goed voor code, maar worden voor vrij weinig andere dingen gebruikt (buiten software ontwikkelaars kennen weinig mensen Claude).

Perplexity zou kunnen? Ook die zijn echt een stuk kleiner dan Google natuurlijk - maar de CEO heeft wel een goede marketingmachine gecreëerd waardoor ze wel veel bekender zijn dan Claude. Alhoewel - ze doen nog te weinig met eigen modellen en die afhankelijkheid creëert ook niet echt een concurrent.

Ik denk zelf dat de enige concurrent die ze nu zien Gemini is. Google is onwijs groot, Gemini 3 is een ontzettend goed model en vooral de foto’s zijn niet meer van echt te onderscheiden. Bovendien hebben Google en Apple net een deal gesloten dat Siri en Apple Intelligence veel meer op Gemini gaat leunen dan ChatGPT.
OpenAi heeft een goed genoeg AI product, maar heeft niet heel veel eigen hardware. Blijft ook in gebreke als het gaat om infrastructuur, vandaar dat ze maar al te graag met Microsoft in zee gingen vanwege hun Azure infra. OpenAI heeft ook geen eigen CPU/GPU/chip ontworpen. OpenAI heeft wel heel veel niet-betalende klanten, welke een heleboel cash aan compute en energie verdampen.

Grok, heeft een meh AI product, wat iets te gefocust is op de leider Musk. Heeft wel wat infrasctructuur en heeft veel GPUs van NVidia aan kunnen schaffen.

Microsoft heeft Azure, dus infra, maar hun eigen AI producten zijn het net niet. Laat ik het vriendelijk houden. Microsoft had OpenAI, maar is nu ook Claude aan het integreren in hun CoPilot gedoe.

Anthropic, heeft een goed product voor het produceren van code en heeft veel betalende klanten in het bedrijfsleven. Dat is waarom zij er financieel veel beter voorstaan dan OpenAI.

Google, heeft flink wat infra, heeft een goed genoeg AI product en dat draaide op de door hen ontworpen TPU chips, welke nu dus ook worden verhuurd aan het bedrijfsleven.

Perplexity, heeft een in mijn ogen meh AI produkt, geen infra en geen chips. Dat huren ze allemaal in.

Wanneer de bubbel barst is Perplexity het eerste slachtoffer. OpenAI in huidige vorm gaat dat ook niet overleven, want kost teveel en levert niet genoeg op.

Google zal het niet leuk vinden, maar die hebben wel de beste overlevingskans, omdat ze zo'n beetje in elke takken zitten als vrij grote tot grote speler (om AI publiek beschikbaar te maken).

Microsoft en Anthropic overleven het ook wel, want betalende klanten, diversiteit in produkten en een goed AI produkt.

Waarom denk je dat OpenAI zich in allerlei bochten wringt om maar aktief te kunnen worden in andere takken? Omdat zij daarmee hopen dat zij daarmee de "too big too fail"-behandeling hopen af te dwingen. Het gaat niet zo zeer meer om het AI produkt zelf, maar ook de distributie, de hardware, enz. Deze "randzaken" heeft openAI simpelweg niet (goed) voor elkaar en dat gaat ze nog keihard bijten.

Als ik geld had om te investeren, dan stak ik nog geen knoop in OpenAI. Altman mag ik niet, maar dat is op zich geen reden om wel/niet te investeren. Zelf denk ik dat OpenAI, in huidige vorm, een bodemloze put is waar alleen Altman mogelijk rijk van word. De baas bij Anthropic mag ik ook niet zo, maar die heeft tenminste wel wat meer financiele verantwoordelijkheid. De baas bij Perplexity...die vertrouw ik nog niet met zijn eigen oma.

Van de Mistral LLMs die ik thuis via LM Studio heb uitgeprobeerd op mijn 16GB GPU, kan ik zeggen dat deze niet de slechtste LLMs zijn die ik ben tegengekomen (56 tot nu toe). Maar ze zijn ook niet de beste. En ook niet de snelste.

Van de heel kleine LLMs bevallen LFM2 en IBM's Granite 4 heel goed. LFM2 word in q8 en in bf16 formaat aangeboden. Hun 2b LLM (in bf16 formaat) is behoorlijk goed voor de omvang. En vanwege 16 GB GPU is 128k context ook geen probleem.

Granite 4 vind ik vrij goed, omdat deze reageert met no-nonsense antwoorden. Deze twee (met maximale context) passen in een 4 GB GPU (via LM Studio).

Noot:
Nederlands gebruik ik niet met LLMs.

Noot2:
Kun je meerdere kleine(re) modellen tegelijkertijd kunnen draaien, dan kun je echt gaan automatiseren en verificeren.

Noot3:
Nu dat ik via MCP nu ook websearch heb geintegreerd in LM Studio, kunnen de LLMs met tool-ondersteuning nu ook het internet op. En dan vallen die kleinere modellen flink minder tegen in vergelijking met OpenAI/Claude/Gemeni...
Kan niet wachten tot de bubbel klapt
Ik ook niet, in de zin dan dat het naar een normaal niveau gaat allemaal. Waar ik wel wat bang voor ben is de schade die de klap gaat geven. Je ziet de astronomische bedragen steeds een rondje maken en nu zien we praktisch ook zelf de nadelen met de stijging in geheugen-prijzen etc. Het zou me niet verbazen als dit een financiele crisis kan geven.
Momenteel houdt de AI bubble (als in de geschatte waarde is niet reëel) de hele Amerikaanse economie omhoog.
Kan niet wachten tot de bubbel klapt
Tot je er achter komt dat een groot deel van je pensioen in de grote techbedrijven is geïnvesteerd.
Dus? De bubbel dan maar groter laten worden?
Dat zou ik niet te hard zeggen. De bubbel is nu een essentieel deel van de economische cijfers waar iedereen op stuurt. De economische groei en aandelengroei van de laatste drie jaar is voor een aanzienlijk deel gekomen uit AI. Als dat instort dan vallen niet alleen AI-producten en AI-bedrijven weg, als een soort terugkeer naar de pre-AI-tijd. Zoals bij elke crisis zijn het dan gewone mensen die het onderspit delven. Lasten en nadelen worden door kapitalisten altijd gesocialiseerd / verspreid, terwijl de lusten worden geconcentreerd bij hun eigen voeten. Dus AI is nu "too big to fail" en als er binnen enkele jaren geen grote verdiensten gaan komen en de bubbel knapt dan zullen we het allemaal moeten voelen.

Als niet-fan van AI zeg ik: we zijn de sjaak als AI blijft én als AI inzakt.

Als het inzakt dan zullen pensioenfondsen, overheden, consumptieprijzen, valutawaarden en eigen aandelen daaronder lijden. Inclusief misschien vele miljarden aan belastinggeld voor bailouts voor AI-bedrijven, mocht het zover komen.

En als het blijft: AI verslechtert ons denken en doen, onze geestelijke gezondheid, aandachtsspanne, motivatie en inzet, onze banen en carrièremogelijkheden, educatie, media, politiek, enz. Dit is aangetoond in onderzoek en de schade is groter en sneller dan de destructie die sociale media heet. Zelfs met die vorige gruwel - sociale media - zijn we nog lang niet op orde en is er bijna niks opgelost van de problemen. Plus het enorme gebruik van stroom, bouwcapaciteit, water en ruimte door AI. Allemaal zaken die ook hadden kunnen worden ingezet voor de woningcrisis en de klimaattransitie.

Ten slotte is er geen enkel alternatief economisch model voor de velen die hun baan verliezen als AI beter wordt en de robotica op stoom komt. Om zo'n alternatief te bekostigen zou eerlijke belasting nodig zijn op de rijksten én op de toegevoegde waarde die de AI/robots maken. Dan kan daar een UBI uit betaald worden. Maar dat belasten lukt al niet sinds de jaren 1970 omdat de rijksten dat niet zo graag willen. Dus ze vernietigen banen zonder alternatief voor inkomsten. Bestaande uitkeringen vallen om zodra de werkloosheid hoger is dan een beetje, met toenemende sociale onrust tot gevolg.

Vandaar: damned if we do, damned if we don't.

[Reactie gewijzigd door geert1 op 2 december 2025 17:53]

Vandaar: damned if we do, damned if we don't.
Waar zijn de Robespierre's wanneer ze nodig zijn?
Het is allemaal veel erger dan alleen de AI bubble. We hebben te maken de gigantische overheidsschuld van de USA (en sommige westerse landen), Crypto en de AI bubble.

Global economy: If a triple bubble looms, can we survive a triple burst?

Als dit een perfect storm wordt dan hebben we een kleine uitdaging ...
Ik ben al overgestapt naar Gemini als betalende ChatGPT klant. Ik vind het veel beter. Benieuwd wat ChatGPT kan doen.
Ik vond Gemini vroeger (lees: een paar maanden geleden nog) altijd nogal beperkt in wat het kon. ChatGPT reageerde toch vaak een stuk duidelijker en kon meer. Dit is dan nu beter geworden?
Voor mij is het niet per se dat andere tools meer kunnen of duidelijker zijn.
Ik ben zelf vooral geen fan van ChatGPT's belerende taalgebruik.
Vooral als je met vervolg vragen het antwoord probeert te tweaken of ChatGPT corrigeert is ie daar niet van gediend. }>
Ik heb eigenlijk het tegenovergestelde, zodra ik hem corrigeer dan verontschuldigd hij zich en komt (meestal) met een beter antwoord.

Blaf je hem misschien te veel af zodat hij is gaan spiegelen? :Y)
Wie weet ;)
Ik gebruik wel vaak steekwoorden of korte instructies.
Misschien moet ik wat vaker alsjeblieft zeggen. O-)

Hij verontschuldigt zich wel inderdaad.
Maar vervolgens spreekt ie je tegen en maakt dezelfde fout nog een keer. :P
Het verontschuldigd zich en komt met een ander antwoord. Eentje die zeker niet altijd beter is. En dat is de crux. We noemen een taalmodel nu AI terwijl er geen intelligentie achter zit.
Je weet dat je tegenwoordig een persoonlijkheid kunt instellen? Ik heb hem zo kortaf mogelijk gemaakt - geen "wow, amazing" achtige nonsense for mij. Af en toe zeg ik "dank je" uit reactie en dan krijg ik een droge "acknowledged" terug 😆
Ja, maar ik zeg dus dat ik het een paar maanden geleden nog helemaal niet beter vond. Erg beperkt en teleurstellend qua reacties. Kon niet eens afbeeldingen genereren volgens mij. Dus dan moeten ze in korte tijd wel erg grote sprongen gemaakt hebben.
Ik gebruik gemini al ruim een jaar op m'n telefoon en kan ook al bijna een jaar afbeeldingen genereren.

De tijd vliegt, wellicht is het al iets meer dsneen paar maanden dat je het geprobeert hebt?
Het maakt nu zelfs afbeeldingen zonder er achter te vragen om een uitleg duidelijker te maken. Ik ben verschoten hoe goed het werkt. Ben ook aan het kijken om over te stappen.
werkt het ook veel beter voor programmeertaken?
Voor Powershell werkt het veel beter, ik ben ook al overgestapt.

ChatGPT maakt alleen maar fouten, kraamt echt totale onzin uit. Niet bestaande Powershell commando's etc.
Dit inderdaad.
Ben pasgeleden toen ik me een dagje verveelde de discussie aangegaan met chatgpt, en het resultaat was bedroevend. Een quite simpel PS script van iets van 200 regels gewoon niet werkend krijgen. Het ergste was nog dat ie continu dezelfde fouten maakt, zelfs als je hem erop wijst. Dan maakt ie weer een andere blunder, wijs je hem daarop, herschrijft hij de boel, en maakt hij weer dezelfde fout als eerder. In dit geval was het een simpele Write-host "<hoop tekst> $variabele: <meer tekst>". PS vindt het niet fijn als je een : meteen achter een variabele zet... Ik denk dat hij die fout meer dan 10x gemaakt heeft... Was ook leuk om elke keer als hij weer een nieuwe revisie bedacht had te zeggen dat hij de zojuist geproduceerde code moest checken op fouten. Vaak kwamen er dan een paar dingen uit, en hij vraagt: moet ik het fixen (Ja DUUUH....), je zegt Ja, en hij maakt dezelfde fout 😂
Na een paar uur was ik m'n geduld wel kwijt. Zelfde code in gemini gegooid, meteen fatsoenlijk werkend. Werden nog 2 handige aanvullingen voorgesteld, en dat was ook in 1x fatsoenlijk werkend zoals verwacht.

Ik denk dat ik volledig naar Gemini ga iig. Gebruik ChatGPT vooral voor simpele dingen waarvoor ik geen zin heb om me in te lezen. Bv SQL scriptjes. Ik weet net genoeg van SQL om het niet stuk te maken, maar moet af en toe nog wel eens wat data uit een DB trekken met meerdere data sources. Dat soort dingen kan chatgpt nog wel vrij makkelijk produceren. Al vertel ik hem wel globaal wat ik wil, en niet actual data uit de DB... God weet wat ie daarmee doet...
Dat had ik dus ook, steeds dezelfde fout maken en steeds dezelfde niet-oplossing bieden. Op een gegeven moment kom je in een soort loop terecht. Uiteindelijk heb ik Gemini gevraagd wat doet ChatGPT hier fout en na zijn fix werkte het direct :)

Het is wel een beetje jammer, dat Google de AI race weer lijkt te gaan winnen. Ik gebruikte eigenlijk al geen Google Search meer sinds ChatGPT. Maar nu zit ik weer volledig Google.
Google heeft hun eigen AI ontwikkeld en heeft ook eigen datacenters gevuld met zelf ontworpen chips (TPUs). Of OpenAI eigen datacenters heeft weet ik niet. Voor zover ik begreep huren ze dat van MS/Amazon/Google. OpenAI heeft redelijk goede AI software en probeert ook op hardware-gebied mee te spelen, want dat zal ervoor zorgen dat ze de barstende bubbel kunnen overleven.

Anthropic is in een soortgelijke positie als OpenAI, maar op kleinere en financieel veel betere schaal. Hun Claude product is erg prettig in het gebruik bij software ontwikkeling. Dat is waar zij zich op focussen en zijn daardoor al redelijk stevig verankerd in het bedrijfsleven. Daarom zie ik Anthropic een barstende bubbel wel overleven en OpenAI dus niet. CoPilot zal het ook overleven, omdat deze gekoppeld is aan Anthropic/Claude en/of Google/Gemini, want wat Microsoft zelf produceert aan AI, het is bedroevend slecht.

Wanneer de AI bubbel barst, dan zie ik een groot "bloedbad" bij de meeste AI startups en tussenhandelaars. Diegenen met eigen compute hardware, hosting faciliteiten en eigen AI software, deze gaan de AI race overwinnen.
Inderdaad, ChatGPT wordt zo'n beetje volledig gefund door NVIDIA. Ik heb daar een documentaire over gezien. NVIDIA investeert miljarden in ChatGPT. En met dat geld huurt ChatGPT hardware bij Amazon/Microsoft die hun chips vervolgens weer kopen bij NVIDIA....

Circular funding noemen ze dat, ze zijn eigenlijk gewoon geld heen en weer aan het pompen en zo wordt de omzet artificieel verhoogd en de beurswaarde tot enorme proporties opgeblazen.
Aha, hier wordt voor mij een aantal dingen een stuk duidelijker. Ik gebruik ChatGPT continue in mijn programmeerwerk. En ik ben zeer tevreden over de uitkomst.

Maar no-way dat ik chatgpt vraag om een stuk code van 200 regels te genereren! Ik werk sowieso volgens microservices-architectuur. Als ik vraag om verbeteringen/aanvullingen/etc. dan gaat het om code van maximaal 100 regels. En 9 van de 10 gevallen zo rond de 50 regels.

Met grotere lappen code... daar krijg ik ook te veel fouten mee. Maar als je het in kleinere stukken verdeeld... dan gaat het - wat mij betreft - bijzonder goed.
ChatGPT werkt redelijk voor code in elk geval voor bijv. Java (geen idee voor wat betreft Powershell, ik werk in Linux, dus bash ligt meer voor de hand). Je kunt ook kijken naar Claude, dat werkt in mijn ervaring nog het beste. En als je het kunt installeren kun je lokaal werken met OpenHands.
Persoonlijk vind ik Claude AI verreweg het prettigst voor programmeerwerk, al werkt het net iets anders dan je misschien gewend bent. Je draait Claude namelijk direct in de folder van je project, dus je moet zelf goed opletten dat je geen gevoelige data zoals credentials of API-sleutels meegeeft.

Daar staat tegenover dat hij wél heel goed grote projecten zelfstandig kan opzetten en uitbreiden. Ik heb er inmiddels meerdere hobbyprojecten volledig mee gebouwd, zonder zelf een regel code te schrijven:

Een WordPress-theme met gebruikersregistratie en cursusinschrijvingen, dat ik momenteel laat uitbreiden met een systeem dat automatisch toont welke vervolgcursussen je kunt doen, inclusief een grafische flow op de site.

Een uitgebreide collectie-website (munten, films, series, games, strips, etc.) volledig gebouwd in PHP en Laravel.

Voor mijn use-case werkt dit verrassend goed, vooral bij grotere projecten waar je normaal veel handwerk aan hebt.
Codex van chatgpt en ook claude zouden nog net iets beter werken dan gemini voor coding. Ik heb geen geen ervaring met zelf te vergelijken, maar dit is wat ik lees in artikels over de benchmarks.

Op alle andere vlakken scoort gemini nu een stuk beter.
Dat is vooral het consumenten speelgoed. Dat doen ze goed met verschillende oplossingen. NotebookLM is super, de Ai assistent voor het aansturen van zaken werkt ook prima.

Maar Google automatiseert oa met Ai complete backend processen en bv in beheername trajecten van klanten. Het wordt door de hele klant en automatiserings-keten heen gebruikt. Ook hebben ze specifiek voor Ai multimodale databases waar je alles in kunt slingeren en vervolgens mee aan de slag kan, al dan niet met Ai als stuur/gebruiksmiddel.

Waar ik anderen vooral bedrijfsprocessen zie automatiseren met Ai, zie je google bedrijfsprocessen onder de loop nemen en van onder af compleet veranderen. Gaar wat verder allemaal dan alleen een chatbot.

Zo ook IBM, je leest er niet veel over, maar die zitten ook vol in de vernieuwing van tooling en bedrijfsapplicaties waar men altijd al sterk in was.
Wat zijn dat dan voor processen. Ik heb er moeite mee in te zien waar de meerwaarde van ai zit. Veel processen die te automatiseren zijn kunnen prima hardcoded geschreven worden. Geef eens een voorbeeld van zo'n proces wat totaal van de bodem af wordt herschreven met ai implementatie.
Ik denk dat het voornamelijk gaat over snelheid van automatiseringstraject en dus kost van de implementatie. + In wel wat motoren van sommige verzekeringen wordt ai nu al gebruikt om tot beslissingen te komen en enkel serieuze twijfelgevallen worden nog door een mens bekeken.

[Reactie gewijzigd door Quacko op 2 december 2025 14:35]

Maw toeslagen schandaal == beleid?
Ik begrijp niet wat kindertoeslag te maken heeft met ai bij verzekeringen of andere zaken die ik in men post had gezet...?
Dat was ook mijn ervaring met Gemini. Ik kreeg allemaal verkeerde antwoorden en het maakte aannames die niet zouden moeten gebeuren en het is erg woke. Ik heb het intens vergeleken met ChatGPT, Grok, Deepseek en Claude en Grok, en ChatGPT waren duidelijk de beste, en dit is meer 1-2 maanden geleden hooguit dus het lijkt mij sterk dat Gemini nu on par staat met ChatGPT.

Maar goed, de concurrentie in A.I. is groot, dus dat zal alle partijen flink stimuleren om te verbeteren en dat is weer goed voor de consument.
Ik kreeg allemaal verkeerde antwoorden en het maakte aannames die niet zouden moeten gebeuren en het is erg woke
Vooral dat idd :) Ga het nog wel eens proberen, maar voorlopig blijft ChatGPT voor mij toch #1. Het kost wat, maar je hebt er ook veel aan. Het is zo'n groot hulpmiddel geworden in het dagelijks leven.
Het ligt er toch ook erg aan wat je ermee wilt doen? Voor zaken zoals code schrijven is het ene model beter dan de andere. Er is niet een all-in-one model beschikbaar die goed is in alles
Gemini is momenteel beter in coderen dan ChatGPT. Naar mijn ervaring is Claude4.5 Sonnet nu de allerbeste codeur, maar op niet code-gerelateerde vragen is Claude heel matig. Dus alles behalve code gerelateerde vragen doet Gemini 3 Pro nu het beste.
Claude kan ook vrij redelijk teksten herschrijven.
Chatgpt 5.1 Pro doet het bij mij nog vele malen beter met code dan Gemini.
Ik gebruik ChatLLM teams waar je een aantal tokens krijgt en zelf het model kan kiezne. Voor coderen zijn ChatGPT en Gemini nu een beetje hetzelfde met Claude voorop. Maar voor allerdaags uitzoekwerk of zoekopdrachten vind ik Gemini 3 beter. Dus nu gebruik ik eigenlijk alleen maar Claude voor coderen, of Gemini voor andere dingen.
Ik zet complete projecten in een ChatGPT project en kan hem de meest gekke bugs laten detecteren en oplossen. Klant geeft probleem door, ik plak dat in mijn project, chatgpt gaat code analyseren en komt met oplossingen dan wel deels oplossingen. Gaat hier super en scheelt heel veel tijd.
Tja er is een reden dat Claude alle code benchmarks wint en favoriet is onder software engineers.

GPT5 is zeker niet slecht hoor, maar vooral bij complexere opdrachten is Claude 4.5 Opus momenteel het beste.

Het gaat echter zeer snel, Anthropic had eerst Claude 4 Opus maar bracht Claude 4.5 Opus uit nadat Google Gemeni 3 uitbracht. Want Gemeni 3 Pro is beter dan Claude 4 Opus. Ook GPT5.1 was beter dan Claude 4 denk ik. Maar over het algemeen is Anthropic echt heel gericht op software engineers.
Dank voor de tip. Voorlopig ben ik zeer tevreden over ChatGPT. Mocht het niet meer voldoen zoek ik wat anders.

Ik heb even met Claude.ai gespeeld maar de gratis versie is mij te traag. en ik kan geen zip file met heel veel data uploaden. (Misschien zie ik iets over het hoofd.)

Dus voor nu geen optie.

[Reactie gewijzigd door HansvDr op 2 december 2025 16:51]

waarom zou je overstappen als je ook aistudio hebt? daarin kan je ongelimiteerd alle modellen gebruiken. (met uitzondering van veo 3 en nano banana pro)
Ik kreeg (als medewerker van een universiteit) de mogelijkheid om een jaar lang gratis Gemini betaalde versie te proberen.
Notebook LM en NanoBanana zijn wel echte eyeopeners....
Ik ben van betaalde ChatGPT overgestapt naar de betaalde versie van Grok genaamd SuperGrok, werkt ook super. Hadden een aanbieding voor een jaar incl X.
Waarom ben je over gestapt? Ik heb verschillende modellen geprobeerd, maar blijf telkens hangen bij ChatGPT, Claude en Mistral. Deepseek, Qwen en Grok zijn het steeds net niet, in elk geval voor mij. Gemini werkt ook wel goed, maar die billing setup van hen is echt ongeloofelijk slecht, dus daar blijf ik liever van weg.
Omdat ik die Sam Altman voor geen meter vertrouw met z'n ik verdien niets aan de non-profit, terwijl hij er vervolgens een for-profit van maakt en aan Microsoft verkoopt.
Dank OpenAI dat jullie zo helder laten weten dat ik beter naar Gemini3 over kan stappen. Ongekend open en eerlijk!

(Of zou het een soort poging zijn kosten te besparen op al die gratis gebruikers? :P)
ChatGPT geeft er telkens een nieuwer cijfer aan, maar praktisch gezien lijkt het even (on) nauwkeurig. Ze hoopten op scholieren die abonnementen kopen om hun huiswerk te maken maar er zijn genoeg gratis alternatieven en ik begrijp dat de bubbel nog net niet op het hoogtepunt zit, maar tegelijkertijd is er weinig dat ChatGPT kan, wat andere bedrijven niet kunnen. Alle investeringen van Microsoft hadden ze beter zoals X en Musk in hun eigen AI kunnen stoppen denk ik
Maar die gratis opties zijn alleen nodig voor de enorm snelle ontwikkeling. Al deze services gaan gewoon geld kosten, behoorlijk veel geld. De meeste mensen zullen dat betalen omdat de voordelen erg groot zijn. Ik zou eenvoudig niet meer kunnen werken zonder (hoewel, als ik 14 uur per dag werk...).
Wow, dat is nogal een uitspraak. In wat voor opzicht kan je niet meer zonder qua werkzaamheden? Lijkt me zeer interessant.
Ik ben gewoon veel productiever met AI. Ik gebruik voor CoPilot/Gemini (voor de snelle vragen) en Claude Code (voor programmeerwerk). Natuurlijk kan ik zonder (dat heb ik ruim 30 jaar gedaan), maar met AI ben ik productiever in mijn werk.

We hadden vandaag een klant die vraagt of "Reborn OS" geschikt was om onze software op te draaien. Even Gemini vragen of het geschikt is voor production-use en die kwam meteen dat het wellicht niet handig was, omdat het een rolling release is (dus geen LTS/stable). Had ik ook zelf uit kunnen zoeken (via Google), maar het is gewoon meteen antwoord op een vraag.

Hetzelfde heb ik voor sommige programeertaken. Stel ik schrijf een stuk code en dan vraag ik Claude Code om er unit-testen bij te schrijven. Die analyseert mijn wijzigingen en schrijft verrassend complete unit testen. Moet je vaak zelf nog wel een beetje bijpunten, maar het scheelt me een boel werk.

Ook de reviews van CoPilot in GitHub zijn vaak prima. Haalt er best een aantal "domme" fouten uit. Het is geen vervanging voor peer-reviews, maar het helpt zeker om wat foutjes te voorkomen.
Ik betwijfel of ik nu echt productiever ben met AI... ik heb het in ieder geval niet gemeten. Programmeren is slechts een klein deel van m'n werk als softwareontwikkelaar. Ik ben veel meer tijd kwijt met nadenken over de oplossing, praten met stakeholders en teamleden, designs maken etc dan puur regels code schrijven.

En als ik dat wel doe, dan betrap ik mezelf er de laatste tijd steeds vaker op dat ik de code die AI voorstelt (of per ongeluk al in m'n editor heeft geduwd) moet aanpassen of weer weghalen. Maar voordat ik dat doe moet ik het eerst lezen. Dat kost me misschien bij elkaar wel meer tijd dan dat ik het zelf zou schrijven.
VSCode die code voorstelt is vooral "IntelliSense on steroids", maar dat is wat anders dan Claude Code die je code-base kent, weet wat de conventies zijn in je project (`AGENTS.md`) en die vraagt bepaalde analyses te doen.

Een vraag stellen aan AI geeft je vaak een veel gerichter antwoord, dan een conventionele zoekopdracht. Stel dat ik de vraag stel om met openssl een certificaat te maken. Dan krijg ik met AI meestal precies de juiste commando's. Met Google wordt ik naar een pagina geleid waar OpenSSL staat beschreven en dan moet je het vaak zelf nog uitzoeken. Het nadeel van dat laatste is dat het meer tijd kost. Het voordeel is dat je meer leert.

Ik merk dat er bij veel programmeurs veel weerstand is tegen AI-assisted coding, maar ik ben er vrij zeker van dat het vak van software engineer flink gaat veranderen. Ik zal laatst de afstudeeropdracht van een bevriende MBO Informatica kennis. Heb maar niets gezegd, maar zijn hele opdracht klop je met Claude Code zo in elkaar. En dan had je betere output dan van wat hij ervan had gemaakt.

Ik werk voor een Amerikaans bedrijf uit de Bay Area en daar zitten ze natuurlijk helemaal op de AI-trein. Ik was ook sceptisch, maar na het zelf een tijd gebruikt te hebben ben ik toch best enthousiast. Is het perfect? Nee zeker niet, maar het is al best goed en we staan nog maar aan het begin.
Stel dat ik de vraag stel om met openssl een certificaat te maken. Dan krijg ik met AI meestal precies de juiste commando's. Met Google wordt ik naar een pagina geleid waar OpenSSL staat beschreven en dan moet je het vaak zelf nog uitzoeken. Het nadeel van dat laatste is dat het meer tijd kost. Het voordeel is dat je meer leert.
Grappig, als ik het aan google vraag door "met openssl een certificaat te maken" te zoeken krijg ik als resultaat danwel instructies met commando's die ik moet uitvoeren danwel complete scripts waar ik alleen de input van hoef aan te passen.
Ik merk dat er bij veel programmeurs veel weerstand is tegen AI-assisted coding, maar ik ben er vrij zeker van dat het vak van software engineer flink gaat veranderen. Ik zal laatst de afstudeeropdracht van een bevriende MBO Informatica kennis. Heb maar niets gezegd, maar zijn hele opdracht klop je met Claude Code zo in elkaar. En dan had je betere output dan van wat hij ervan had gemaakt.
Probleem is dat je op veel opleidingen ook niet leert programmeren, laat staan dat je fatsoenlijke workflows leert (helaas is het bij veel bedrijven niet beter). Daarnaast zijn het natuurlijk 13 in een dozijn opdrachten dus niet heel verbazend dat AI dat wel goed kan. Ik zie juist dat AI zelf met de context van een heel project nog regelmatig op z'n bek gaat zodra de opdracht niet een 13 in een dozijn oplossing omvat en op zo'n moment gaat de productiviteit die je met AI kan halen toch echt drastisch achteruit. Daarnaast komt er tot nu toe ook naar voren dat hoewel individuen over het algemeen aangeven productiever te zijn, op team en business niveau dit niet terug te zien is of zelf achteruit gaat.

Helaas ben ik het er mee eens dat het vak waarschijnlijk flink gaat veranderen, alleen ben ik er wel bang voor dat het er niet beter op wordt. Door AI zal juist het zicht op goede workflows nog meer vervagen want "AI lost het wel op".
Je moet die OpenSSL commando's dus aanpassen naar je eigen. Maar gooi nu eens de volgende in CoPilot: "How to convert `kubectl wait --for=condition=Ready pod/busybox1` in Go code using Kubernetes SDK?". Gewoon een kant-en-klaar code-snippet dat prima bruikbaar is. Gaat Google je echt niet zo pasklaar geven.

En het is inderdaad een illusie om te denken dat Claude Code ineens alles magisch voor jou gaat oplossen. Net als een nieuwe programmeur in je team heeft die guidelines nodig en als je redelijk compleet bent in je `AGENTS.md` bestand, dan kan die heel veel taken prima overnemen. AI assisted coding is een tool waarmee je om moet leren gaan, dus het heeft -net als alle andere tools- een learning-curve. Wij gebruiken Claude Code veel in een Go-based code-base van meer dan 10 jaar en vrij omvangrijk. De meesten in ons team (met name de zeer ervaren programmeurs) zijn er erg enthousiast over.

Ik zit overigens 30+ jaar in het vak als software ontwikkelaar, maar wat bedoel je met workflows? Ik kan niet echt chocola maken van "het zicht op goede workflows vervagen". Bedoel je het code ontwikkelingsproces?
In die prompt die je als voorbeeld geeft zit al heel veel voorkennis. Ik ben niet nieuw, maar ik weet niet wat dit doet. Dus ja, als je weet wat je moet vragen krijg je wellicht het antwoord dat je wil hebben. Maar je moet a) wel precies weten wat je moet vragen en b) het antwoord kunnen beoordelen op juistheid. Daarin huist een groot probleem. Jij hebt die kennis, maar de komende generatie die alleen met AI heeft leren programmeren niet.
Ja, ik gebruik inderdaad ook wel AI met programmeer-taken, maar zoalsSnith aangeeft zit daar nog steeds veel handwerk in. Wat ik veel handiger vindt is dat het mij sneller op een ander pad kan laten nadenken, dingen voorstelt die of onzin zijn of juist nuttig omdat ik er nog niet aan had gedacht. Dus op die manier het nuttige eruit vissen is dan wellicht productiever. Maar ik zou het veel meer moeten gaan vertrouwen om dat ook daadwerkelijk te zijn en dat doe ik simpelweg niet. Sowieso heb ik geen flauw idee of het een juist antwoord op een vraag is of niet, zoals in jouw voorbeeld met de klant, hoe weet je zeker dat dat juiste info is?
De testen laten voorstellen/maken is best een goede oplossing. Dat werkt best aardig. Het is nooit perfect natuurlijk, je hebt snel een basis set testen, die kun je dan aanpassen als het nodig is.
Ja klopt, dat doe ik ook dus in die zin helpt het me om productiever te zijn in het coderen zelf. Echter hoor ik ook vaak dat je jezelf aanleert om steeds minder goed na te denken of de test daadwerkelijk goed genoeg is, juist vanwege het gemak. Ik zie zeker wel voordelen hoor, maar om nu echt te kunnen zeggen dat ik productiever ben, daar ben ik zelf niet van overtuigd. Ik denk dat het daar nog net niet goed genoeg voor is, omdat ik het nog steeds niet echt kan vertrouwen.
Denk dat je het juist goed aanpakt, altijd controleren en blijven nadenken. Notabene leren ze het hier iedereen in de cursus omgaan met generatieve AI. Volgens mij was die van Google zelf ook nog eens.
Het hallucineren van AI is inderdaad een probleem. Het kan met grote stelligheid iets roepen dan totale onzin is. "You're completely right" is een erg bekende zin voor de mensen die veel AI gebruiken.

Ik controleer dus altijd de AI output (vooral als het richting klanten gaat). Maar als het roept "Reborn OS" heeft een rolling-release en geen stable/LTS versie, dan controleer ik of dat klopt. Zo ja, dan is het inderdaad niet handig om te gebruiken als productie OS. Het helpt mij vaak vooral in een bepaalde richting te denken.
Maar dan zoek je dat dus alsnog op, heeft het dan geholpen tijd te besparen?
Ja, omdat ik anders eerst een heel verhaal over Reborn OS moet gaan doorlezen. Kom ik een boel tegen over desktop managers, installers, ... AI brengt meteen de reden waarom het denkt dat het geen kandidaat is. Dan hoef ik enkel dat te controleren.
Ah op die manier, ja dat is idd een goede.
Ik hap op de opmerking over weerstand bij programmeurs tegen AI-assisted coding 🙂. Ik denk niet zozeer dat het weerstand is tegen AI-assisted coding, danwel weerstand tegen de onrealistische claims. Ik ben helemaal voor AI-assisted coding, maar het bewijs dat dit geen enorme productiviteitsvoordelen oplevert stapelt zich steeds verder op.
Mijn persoonlijke ervaring is toch echt anders. Voorbeeld van vanmiddag... Ik kreeg een bugmelding binnen dat een request vreemd in de audit-log kwam. Het was de action "AssumeRoleWithLDAPIdentity", maar toch stond in de audit-log de naam "assumeRoleSSOCommon". De handler voor de query-parameter "AssumeRoleWithLDAPIdentity" wees toch echt naar de "AssumeRoleWithLDAPIdentity" handler en niet naar de globale SSO handler.

Claude vraag: "Can I get an audit-log entry that has `assumeRoleSSOCommon` in the `api.name` field, but `AssumeRoleWithLDAPIdentity` in the `requestQuery.Action` field?".

Antwoord:


Yes, you can get an audit log entry with api.name = "AssumeRoleSSOCommon" and requestQuery.Action = "AssumeRoleWithLDAPIdentity". Here's how:

Looking at cmd/sts-handlers.go:

1. Route selection (lines 180-184): When a POST request is made with Content-Type:
application/x-www-form-urlencoded and no URL query parameters, it routes to AssumeRoleWithSSO.
2. In AssumeRoleWithSSO (starting at line 414):
- Line 415: ctx := newContext(r, w, "sts", "AssumeRoleSSOCommon") - sets api.name
- Line 419: defer logger.AuditLog(ctx, w, r, claims) - defers an audit log with this context
- Line 429: parseForm(r) is called, which merges POST body into r.Form
- Lines 441-443: If action == ldapIdentity, it calls AssumeRoleWithLDAPIdentity(w, r) and returns
3. In AssumeRoleWithLDAPIdentity (line 906):
- Line 907: Creates its own ctx with api.name = "AssumeRoleWithLDAPIdentity"
- Line 910: Defers its own audit log
4. Audit log construction (internal/logger/message/audit/entry.go:48-53):
q := r.Form // This contains both URL query params AND POST body

When the request returns, two audit logs fire:
1. From AssumeRoleWithLDAPIdentity: api.name = "AssumeRoleWithLDAPIdentity"
2. From AssumeRoleWithSSO: api.name = "AssumeRoleSSOCommon" with requestQuery.Action =
"AssumeRoleWithLDAPIdentity" (from parsed POST body)

To trigger this: Send a POST to the STS endpoint with:
- Content-Type: application/x-www-form-urlencoded
- No URL query string (empty ?)
- POST body containing Action=AssumeRoleWithLDAPIdentity&Version=2011-06-15&LDAPUsername=...&LDAPPassword=...

Binnen 30 seconden wist ik dus dat het fout ging als de "Action=AssumeRoleWithLDAPIdentity" parameter niet in de URL query stond, maar in de body. Had ik dat zelf niet kunnen weten? Vast wel, maar niet binnen 30 seconden...
Het is idd heel tof als het werkt. En dan is het echt impressive. Ik weet het, ik heb het ook gezien. Moet zeggen dat je zelf ook al best een aardige triage hebt gedaan voordat je de vraag aan de KI stelde.

Tegenover de magische dingen heb ik helaas ook een hoop voorbeelden waarbij hele simpele dingen heel fout gaan het het frustrerend veel gedoe is om de KI bij te sturen. Bijvoorbeeld dat de KI constant een verkeerd commando gebruikt om mijn app te testen, terwijl ik dit toch heel duidelijk in de instructies heb beschreven. Of letterlijk de string $password in een invoerveld invult terwijl het de waarde van de param moet gebruiken. Herhaaldelijk. Na tientallen pogingen de KI te sturen met instructies, prompts etc.
Waarom niet chatgpt voor de normale vragen ?

Waarin vind je co pilot en ot gemini beter ?
CoPilot zit als side-venster in Edge, dus die is gewoon heel snel bereikbaar en goed genoeg voor de meeste vragen (dus gewoon gemak).

Gemini vind ik over het algemeen goede antwoorden geven, dus die gebruik ik ook regelmatig. Daarbij komt dat ik die ook zakelijk mag gebruiken, omdat we helemaal in Google zitten (docs, drive, ...). Daarbij vind ik Nano Banana Pro (onderdeel van Gemini) echt torenhoog boven de anderen uitsteken.

En voor AI-assisted coding gebruik in Anthropic's Claude Code. Die heeft modellen die speciaal op programmeren zijn gericht en die heeft ook meer context (code-base).
Ik merk dat ik zelf ook behoorlijk verslaafd ben geraakt aan AI. Ik Google amper nog omdat de resultaten binnen AI vrijwel altijd een beter en overzichtelijker antwoord geven. AI "begrijpt" je vraag beter is mijn ervaring. Natuurlijk spuugt die ook wel eens onzin uit en daardoor is het altijd een afweging die maakt. AI gebruiken voor zaken waar je niets vanaf weet is daarom erg gevaarlijk omdat je niet door hebt wanneer hij hallucineert.
Persoonlijk zoek ik juist op zaken waar ik niets vanaf weet. Voor het weer in Spanje in juni is het prima geschikt, maar ik stelde pas de vraag of vlamboogdetectie verplicht is en kreeg als antwoord dat "dit verplicht is in risicovolle omgevingen als nieuwbouw woningen". Gelukkig zie ik dan de inconstistentie in het antwoord. Als ik het zeker wil weten, dan ga ik toch echt terug naar de bron van het antwoord van AI.
Het probleem is nog wat geniepiger, een onderwerp waar je niks vanaf weet is tot daar aan toe, maar als je globale kennis van iets hebt, en niet genoeg detailkennis, dán kan je de kleinere incorrecte statements moeilijker onderscheiden.

"These small hallucinations are hard to catch because they are completely plausible. I was able to notice the issues only after an extremely close reading and research on every fact and sentence in the output. I may still have missed something (sorry, whoever fact-checks this chapter). But this is what makes hallucinations so perilous: it isn’t the big issues you catch but the small ones you don’t notice that can cause problems.”
Mollick, Ethan. ‘Co-Intelligence: Living and Working with AI.’ Portfolio/Penguin, 2024 Ch.5.
Ik zou eenvoudig niet meer kunnen werken zonder (hoewel, als ik 14 uur per dag werk...).
Ik 8 en kan daarbinnen wel gebruik maken van AI of niet, in beide gevallen werk ik 8 uur per dag en krijg ik hetzelfde betaald :)

Ik kan dus prima zonder, het is dat ik sommige simpele dingen niet echt zelf (meer) wil doen :D
Het vervelende is dat de hoeveelheid opgeleverd werk, per betaald uur dan veel lager ligt. En de concurrentie niet stil zit.

De vraag is dus hoe lang je werkgever nog in staat zou zijn dat verschil tov de concurrentie goed te praten / voordat het zich uit de markt prijst.
Jawel, dat kan je wel. Als je al echt bijna 2x zo productief bent geworden (wat ik echt heel erg in twijfel trek, maar goed), dan betekent het gewoon dat iemand anders een deel van je werk gaat doen. Delegeren. Heeft iemand anders ook weer een job. Win-win.
De thinking models zijn wel echt een stuk nauwkeuriger. Als gratis gebruiker zit je vast aan de instant models of kleine modellen en die hallucineren er nogal wat bij.
Ik ben idd vrij tevreden met de thinking modellen. Soms duurt het wel lang maar dat neem ik voor lief. toch een goed moment om koffie te halen
Deepseek maakt prima gebruik van MoE technieken om (al dan niet gratis) te redeneren, en Gemini en Perplexity doet dat ook gratis.
Eh een paar scholieren met huiswerk die dat van hun zakgeld betalen gaan niet al die honderden miljarden van ze terugverdienen ;) Ze hebben veel meer corporate plannen (waaronder natuurlijk samenwerking met bijvoorbeeld Microsoft, alles in Copilot voor Windows en Office wordt gedreven door ChatGPT).
Scholieren is natuurlijk maar een tijdelijk verhaal, vroeg of laat worden de leermethodes aangepast dat je niet meer je huiswerk kan outsourcen.
Kan ik me goed voorstellen. Er was een tijd dat ChatGPT boven de rest uitstak, maar alles ontwikkeld zo snel, dat je met Grok bijvoorbeeld ook prima uit de voeten kunt. Er zijn zo veel gratis LLM's die je momenteel nog kunt gebruiken (dat zal vast ophouden want het kost handen vol geld) die kwalitatief ook goed zijn, dat ik me kan voorstellen dat OpenAI de aantallen terug ziet lopen.
je kan zelfs gratis ongelimiteerd gemini 3 pro gebruiken via google ai studio
Ja, zelfde geldt voor perplexity; als je een paypal adres koppelde, kon je het een heel jaar lang gratis gebruiken. Er zijn echt legio gratis manieren om LLM's te gebruiken momenteel.
Waarmee het hele verdienmodel van LLM's nog verder onderuit gaat, ze proberen investeerders te paaien met user aantallen maar er is geen enkel uitzicht op een winstgevende onderneming die op eigen benen kan staan.
Oftewel: de bubbel. De grote blijven, de rest dondert om en de investeringen zijn weg.
Dat is geen bubbel, dat is een 'winner takes all'-markt. Investeringen in nieuwe markten zijn altijd een groot risico, in Europa lijken we niet te willen snappen dat investeringen soms ook verdampen en dat dit heel normaal is in dienst-economieën.
Momenteel is het echt growth hacking. "Kijk hoeveel meer gebruikers we hebben deze maand!!!". In de hypefase geilen de investeerders daarop, pas als het stabiliseert gaan ze kijken naar inkomsten voordat ze met geld smijten.

Helaas zitten die bedrijven dan al honderden miljarden in de schuld vanwege growth boven alles, en dat moet uit de klanten getrokken worden hoe dan ook. Dus dan krijg je weer de enshittification, steeds duurdere abonnementen, steeds meer reclame en datamining enzovoorts. Eigenlijk hetzelfde als met netflix nu.
Ik vraag me af of ze dat ook als betalende gebruiker zien. Want ik betaal niks maar maak er al maanden gebruik van.
Ik heb net ChatGPT opgezegd, maar krijg nog 1 maand 100% korting als ik nog bleef :P

Met Perplexity heb je gelijk alle modellen en nog 1 jaar gratis. Dan zie ik het nut niet in om nog te gaan betalen voor ChatGPT.
Google flikt het wel weer even, maar benieuwd wie de strijd dan toch echt gaat winnen. ChatGPT is ondertussen ook gewoon een 'merk' geworden.
Ja dat klopt, maar hotmail was ook een merk. Maar ik vermoed dat gmail momenteel meer gebruikers heeft. Hetzelfde voor TomTom vs Google Maps etc. Dat je een merk bent wil niet zeggen dat je succes gegarandeerd is.

Nokia, Blackberry zijn ook twee voorbeelden.
Dat zijn wel heel andere voorbeelden. Alle merken die je noemt zijn op functionaliteit voorbijgestreefd.

TomTom dedicated hardware VS mobiele app

Gmail met geweldige zoekfunctie en spamfilter VS Hotmail die achterbleef op oude techniek

Nokia en BB die de smartphone-boot volledig misten.

In het geval van LLM kunnen ze allemaal in de basis het zelfde en ontwikkelen ze allemaal zo hard als ze kunnen, grofweg in dezelfde richting. Uiteindelijk hebben Google en Microsoft een enorm voordeel dat ze hun AI kunnen verwerken in hun andere producten en kosten met andere inkomstenbronnen kunnen dekken. Vroeg of laat denk ik dat OpenAI zal worden overgenomen door MS, die het nodig heeft voor Copilot. Maar MS zal daarvoor rustig de beurscrash afwachten.
Volgens mij kocht Google vroeger de kaarten bij TomTom. De TomTom services gebruikte je dan minder maar de kaarten nog wel. Zodra je van ChatGPT afstapt heeft OpenAI geen inkomsten meer. Toch maar hopen op andere inkomsten dan.
De eerste shift in de AI wereld is aanstaande. De winnaars en verliezers worden bekend.

Google is toch wat meer geïntegreerd dan OpenAi, daarnaast heeft Google diepere zakken en een bredere inkomstenstroom.

Mijn gok: binnen nu en een paar jaar wordt OpenAI opgeslokt door Microsoft voor een prikkie.
En Google heeft de infrastructuur, waar de anderen afhankelijk zijn van NVIDIA
Ik denk dat het probleem van OpenAI blijft dat ze eigenlijk geen echt product hebben. Als OpenAI puur "API tokens" blijft verkopen gaan ze op een gegeven moment ingehaald worden. Iemand gaat op een gegeven moment een betere (of betere prijs kwaliteit) LLM maken. Dat kan Google zijn, Amazon zijn, Facebook zijn, etc. Of in het ergste geval (voor OpenAI) snoepen opensource LLM's zoals Deepseek en Llama de onderkant en middensegment van hun markt op (niet alles hoeft een state of the art LLM te hebben immers).

Daarin tegen als Microsoft met Office 365 of Google met Google Workspace een matige LLM bundelt maakt dat niet zo heel veel uit. Mensen gaan niet zomaar switchen omdat de LLM die geintegreerd is met hun office suite matig is. Maar overstappen van ChatGPT naar Gemini is zo gedaan.

Steve Jobs zei naar verluid over Dropbox: "Dropbox is not a product, it's a feature". Dat gevoel heb ik sterk bij OpenAI.

Om te kunnen reageren moet je ingelogd zijn