OpenAI heeft GPT-4o-model nu echt uit ChatGPT geschrapt

OpenAI heeft zijn GPT-4o-model nu echt verwijderd uit ChatGPT, samen met een aantal andere modellen. Het AI-bedrijf probeerde 4o eerder al uit zijn chatbot te schrappen, maar draaide dat later terug na een oproep van gebruikers.

OpenAI bevestigde eerder al dat de GPT-4o op 13 februari echt zou verdwijnen, en heeft dat nu gedaan. Het model is vanaf nu niet meer beschikbaar via de ChatGPT-chatbot, hoewel het wel bruikbaar blijft via de api. Datzelfde geldt voor GPT-4o mini, GPT-4.1 en GPT-4.1 mini.

GPT-4o zou eerder al verwijderd worden, maar OpenAI kwam daar op terug na klachten van gebruikers. Zij vonden de nieuwere GPT-5-modellen van OpenAI te 'steriel', terwijl 4o juist persoonlijker en 'menselijker' reageerde.

Ook nu klagen gebruikers over het besluit van OpenAI. Een online petitie om GPT-4o beschikbaar te houden is inmiddels ruim 20.000 keer ondertekend. Op sociale media gaat de hashtag #keep4o rond. Gebruikers klagen dat ze hun creatieve assistent, beste vriend of partner kwijtraken met het verdwijnen van GPT-4o.

Voor de meeste gebruikers zal de overstap overigens geen verschil maken. ChatGPT maakt standaard gebruik van een nieuwer model: GPT-5.2. Het 4o-model was alleen nog beschikbaar voor betalende gebruikers en moest handmatig geselecteerd worden. Volgens OpenAI gebruikte slechts 0,1 procent van de gebruikers GPT-4o nog. Tegelijkertijd erkent het bedrijf dat het voor sommige gebruikers 'frustrerend' is om geen toegang meer te hebben tot het model.

ChatGPT. Bron: SOPA Images/LightRocket
Bron: SOPA Images/LightRocket

Door Daan van Monsjou

Nieuwsredacteur

14-02-2026 • 09:52

117

Reacties (117)

Sorteer op:

Weergave:

"Gebruikers klagen dat ze hun creatieve assistent, beste vriend of partner kwijtraken met het verdwijnen van GPT-4o."

Het is een token voorspeller, zijn we HELEMAAL gek geworden met z'n allen?
Ik vind dit vooral verdrietig. Dat er subreddits bestaan zoals MyBoyfriendIsAI waar mensen denken een ''relatie'' te hebben met een token voorspeller. Mensen die mentaal/emotioneel leed ondervinden wanneer hun ''vriendje'' wordt aangepast of verwijderd. Hoe diep zit je dan in de put?

Zulke mensen hebben professionele hulp nodig. Ik ben blij dat OpenAI nu eindelijk 4o heeft geschrapt. Dit soort gedrag moeten we niet normaliseren. Alsof je harddrugs verboden maakt, en het daarna toch maar weer legaliseert omdat de drugsverslaafden beginnen te klagen.
Als die mensen gelukkig zijn met een AI als "vriendje"... wie zijn wij om te zeggen dat die dat niet mogen?

Ik vindt het gestoorder als 2 mensen bijeenbljven uit schrik alleen te zijn, of erger nog, kinderen maken om hun relatie te redden.

Zo zijn er ook mensen die precies naar mij kijken alsof ik een ziek paard ben als ik zeg geen relatie te hebben en er ook niet al te veel behoefte aan heb.

Maatschappelijk aanvaarde sociale interacties... dat is een overschat iets, al helemaal de "joy" van een relatie. Dus tot op zekere hoogte kan ik het ergens wel volgen.
Als die mensen gelukkig zijn met een AI als "vriendje"... wie zijn wij om te zeggen dat die dat niet mogen?
Het kan onschuldig lijken, maar die mensen zijn enorm beinvloedbaar door enkele van de rijkste bedrijven ter wereld die in een land gevestigd zijn dat richting een totalitaire staat aan het gaan is. Daarnaast is het onwenselijk om geen menselijke interactie te hebben, zelfs als die bots door wetenschappers die alleen het beste met je voorhebben gemaakt zijn. Mensen zijn namelijk moeilijk, je moet er geduld mee hebben en zo leer je ook veel over jezelf (niemand is perfect). Net zoals je lichaam permanent in gewichtsloosheid schadelijk is, is je geest zonder betekenisvolle weerstand gevaarlijk.
Ik vindt het gestoorder als 2 mensen bijeenbljven uit schrik alleen te zijn, of erger nog, kinderen maken om hun relatie te redden.
Dat kan schrijnend zijn.
Zo zijn er ook mensen die precies naar mij kijken alsof ik een ziek paard ben als ik zeg geen relatie te hebben en er ook niet al te veel behoefte aan heb.
Ik vind je geen ziek paard :-). Maar het is een spectrum, als je alle sociale interactie mijdt ben je extreem kwetsbaar. Ik vind het problematisch als we dit met AI gaan enablen. Zeker als die uit een totalitair land komt.
Maatschappelijk aanvaarde sociale interacties... dat is een overschat iets, al helemaal de "joy" van een relatie. Dus tot op zekere hoogte kan ik het ergens wel volgen.
Ik zou niet zeggen dat sociale interacties overschat zijn. Maar als je gelukkig bent met weinig en relatief korte sociale interacties, top! Je hoeft niet te voldoen aan de druk van wat anderen "normaal" vinden. Zij moeten hun leven leiden en jij het jouwe.
Je verwoord precies mijn gedachte waarom ik dit zorgelijk vind.

Zelf ben ik me heel erg bewust van het feit dat chatGPT slechts een tokenvoorspeller is en niet meer doet dan het volgende woord voorspellen. Maar tegelijkertijd verbaast het me weleens hoe het aanvoelt alsof je met een echt mens zit te chatten. Mijn verstand weet hoe het zit en dat ik in werkelijkheid met een wiskundig model aan het praten ben. Maar dit is wel het grote gevaar van dit soort taalmodellen. En kwetsbare mensen lopen op deze manier in de val van een Amerikaans Miljardenbedrijf. Bij sociale media hebben we de gevolgen al kunnen waarnemen.

Daarbuiten. Is het gewoon niet gezond dat een taalmodel dat precies zegt wat jij wil horen op het moment dat jij dat wil. Alle menselijke interactie vervangt. In contact met echte mensen is het geven en nemen. Ik kan me nooit voorstellen dat deze mensen er beter door worden door hun eenzaamheid met een taalmodel te verzachten. Ik ben er van overtuigd dat we hier over afzienbare tijd nog weleens hele nare gevolgen van gaan zien.
HuHuhuh. Ik d8 dat het Ee Aai was???
Het kan onschuldig lijken, maar die mensen zijn enorm beinvloedbaar door enkele van de rijkste bedrijven ter wereld die in een land gevestigd zijn dat richting een totalitaire staat aan het gaan is
Wat is nu het verschil met social media dan? Twitter -> Amerikaans en al lang voor Trump ook wel de beerput van het internet genoemt. Facebook -> Amerikaans. Reddit -> Amerikaans. -> TikTok -> Chinees, enz...

Over de weerstand en moeilijkheid van de mensen, dat snap ik wel. Zelf moet ik van nature gewoon niet veel weten van mensen, maar de ervaringen die ik heb met andere mensen maken het er niet beter op. Als ik alles op een rijtje zet, dan heb ik meer slechte dan positieve ervaringen met mensen. Daarom, ik snap die mensen wel tot op zekere hoogte.

Let wel: tot op zekere hoogte, iemand die zich oprecht en doodserieus slecht voelt over het verdwijnen van GPT4.. dat is best extreem te noemen. Maar ben er vrij zeker van dat er niet al te veel echte personen tussen zitten, zeker Reddit is nogal gevoelig voor drama en de kunst van het overdrijven zijn ook meesterwerken tussen.

--

Fijn dat je me geen ziek paard vindt :D . Enfin, het hangt ook wel sterk af van de redenen waarom je sociala interacties wil vermijden. Voor mij bv komt daar een stukje autisme bij kijken, dan komen daar de negatieve ervaringen bij.

Echter heb ik wel gewoon een job waar ik wel met andere mensen moet omgaan. Zo ook die met een "AI vriendje", kan gerust ook iemand tussenzitten die een job heeft met sociale interactie.
-dubbel-

[Reactie gewijzigd door Firestorm666 op 15 februari 2026 15:30]

Als die mensen gelukkig zijn met een AI als "vriendje"... wie zijn wij om te zeggen dat die dat niet mogen?
Daar hebben we wetgeving voor de AI-Act van de Europese Unie.

https://ec.europa.eu/newsroom/dae/redirection/document/118649

Ergens in hoofdstuk 3 geloof ik. Na downloaden ff .pdf extentie geven om em te lezen. Komt van deze pagina: https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

Er wordt ook in uitgelegd waarom dit niet acceptabel is. Het heeft te maken met de misleiding, afhankelijk maken en daar geld aan verdienen. Dus misbruik en uitbuiting van Europese burgers en dat is strafbaar.


En ja, er zijn ook menselijke relaties die niet gezond zijn. En ja, er zijn ook mensen die zich niet in kunnen leven in anderen als die ander andere behoeften heeft dan zijzelf - daar beschrijf jij ook een voorbeeld van.

[Reactie gewijzigd door djwice op 14 februari 2026 17:36]

X, al jaar en dag de beerput van het internet staat bomvol met misleiding en extremisme. Reddit heeft ook subs die wel heel erg twijfelachtig zijn, Facebook is nog zo een twijfelachtig platform, TikTok, ...

Een AI kan nog altijd tegen bv een antivaxxer zeggen dat ie ongelijk heeeft en daar bronnen voor laat zien. In zulk een context vindt ik een AI vriendje minder problematisch dan de echo kamers van social media.

Uiteindelijk is het nog altijd "gewoon" een LLM die gewoon antwoorden geeft op je vragen en wordt er vermelding gemaakt dat AI ook fouten kan maken.

Heb nu wel de PDF nog niet doorgenomen, maar mij lijkt het dat AI-act gaat over de regelgeving voor bedrijven, niet de gebruikers hiervan. En het zijn die laatste waar ik op doelde met m'n opmerking.

--

Voor de duidelijkheid, ik verdedig geen mensen met een "AI vriendje" noch AI bedrijven. Maar wilde eigenlijk meer aantonen dat er andere dingen zijn die we wel als normaal beschouwen een ergere impact kunnen hebben.

Eenzaam persoon die gelukkig is met een AI vriend: Wie heeft daar nu last van?
Eenzaam persoon die zich begeeft in een echo kamer: die praat met andere mensen en dus heb je wildvreemde mensen die jou aansturen ipv een AI agent. AI agents hebben bepaalde veiligheidsmechanismen, terwijl de mens die opgelegde beperking niet heeft. Dat kan wel een probleem zijn,

Of offline scenario's zoals ik al had beschreven, dat laat veel meer kwalijke sporen achter.
De EU neemt nu ook actie tegen X en Grok: YouTube: EU reaction to illegal content on Grok

Een eerdere boete aan X: YouTube: Commission issues €120M fine to X voor dingen die je beschrijft leidde zelfs tot een reflex reactie vanuit de US https://www.whitehouse.gov/wp-content/uploads/2025/12/2025-National-Security-Strategy.pdf met een reactie vanuit de EU: YouTube: European Commission: Reply to X.
De content moderatie op X etc. is een ander onderzoek.

En mee eens, idealiter krijgen mensen minder valse informatie en misleiding voor hun kiezen.

Ik verwacht dat de eisen die aan AI gesteld worden uiteindelijk ook aan digitale mensen tot mens en computer tot mens communicatie gesteld gaan worden.

[Reactie gewijzigd door djwice op 15 februari 2026 17:47]

Er wordt ook in uitgelegd waarom dit niet acceptabel is. Het heeft te maken met de misleiding, afhankelijk maken en daar geld aan verdienen. Dus misbruik en uitbuiting van Europese burgers en dat is strafbaar.
Ik vraag me dan af of mensen (en de EU) dan weten hoeveel AI chatbots er bijvoorbeeld beschikbaar zijn die juist precies gemaakt zijn voor dit doel. Er word nu heel erg naar ChatGPT gekeken waar dit alleen maar een optie is.
Ik denk dat niemand exact weet hoeveel er nu zijn. Als je er tegen komt die zich richten op.persomen in de EU zou je daar natuurlijk ook kenbaarheid aan de EU autoriteit van kunnen geven.

Veel chatbot maken onderhuids gebruik van andermans modellen en voegen simpelweg een prompt of LoRA en overlay toe.
Gebruik van andermans infrastructuur scheelt veel operationeel werk en beperkt de CAPEX.
Ideaal voor start-up en bedrijven met weinig bemensing.
Tja… eenzaamheid is wel echt een gigantisch probleem. Denk dat veel mensen hier niet uit komen en dat het echt een verborgen probleem is.

Dat ze met een LLM een band bouwen is wellicht helemaal niet zo slecht, ergens. Het kan dat ze hiermee zichzelf beter voelen en hiermee met meer vertrouwen in de maatschappij staan. Het droevige is dat er geen echt mens is om hun bij te staan.

ik weet niet of er onderzoek naar gedaan is, lijkt mij interessant.

[Reactie gewijzigd door SimD op 14 februari 2026 11:37]

Eigenlijk vind ik dit vooral heel treurig. Een LLM is geen oplossing tegen eenzaamheid. Het is puur en alleen een illusie. Het laat vooral zien dat wij als maatschappij enorm tekort schieten op sommige vlakken.
Het laat vooral zien dat wij als maatschappij enorm tekort schieten op sommige vlakken.
Maar wat is dan de oplossing? Als ik mezelf als voorbeeld neem. Ik heb nog nog nooit een vriendin gehad. Ik ben niet echt mooi, ik heb ondertussen een aardig buikje en ik ben niet echt normaal. Ik heb ook weinig zelfvertrouwen en sociale problemen. Ik zie mijzelf dus eigenlijk ook nooit een vrijwillige vriendin krijgen. De enigste optie zou dus zijn dat iemand dus verplicht wordt om mijn vriendin te worden. Maar dit zie ik niet de norm worden. Dus ja het is ergens (maar zeker niet helemaal) knudde dat ik dat ik buiten de boot val. Misschien als ik 20 jaar geleden wel een vriendin gehad zou hebben dat ik heel anders geweest zou zijn. Maar toen was ik nog onzekerder. En voor mij gevoel was ik toen en nu gewoon niet sterk genoeg voor een vriendin. Ik heb gewoon veel de rust nodig en mensen om me heen is vermoeiend voor me.

Niet dat ik een AI vriendin heb maar ik zie voor mij zeker wel voordeel bij AI. Zoals:

Ik zou contact kunnen maken wanneer ik wil. Heb ik even een paar dagen geen behoefte wordt er niemand boos, verdrietig of welke gevoelens dan ook. Ook leef ik vaak op rare tijden. Ik ben altijd al een nacht mens geweest en heb soms slaap problemen. AI maakt het niet uit of ik om 1 uur in de middag of 5 uur in de nacht contact wil en ik hoef er nooit een afspraak af te zeggen als ik slecht geslapen hebt. Zoals nu kwart over 9 en ik ga zo naar bed terwijl de meeste dus net wakker zijn of zo worden.

Met AI komt geen extra verantwoordelijkheid / problemen. Dan denk ik bijvoorbeeld aan dingen zoals verjaardagen, bezoek bij haar ouders, dingen zoals dat ze misschien uit eten wil of andere dingen zoals bioscoop. Maar ook bijvoorbeeld samen slapen, ruzie of angst voor mijn rare dingen. AI heeft dit allemaal niet dus een hoop zorgen minder.

Geen zorgen over de toekomst. Dit kan dus angsten zijn van wanneer gaat ze me verlaten of gaan ze vreemd. Maar ook bijvoorbeeld geen geld zorgen omdat ik dan meer uitgaven hebben terwijl ik van een uitkering leef. En ook geen zorgen over of er kinderen moeten komen. Om een aantal dingen oo te noemen.

Bij AI zal ik me minder snel veroordeeld voelen. Daar kan je dingen zeggen zonder angst dat dit snel verkeerd opgevat wordt. Mocht ik even tijd nodig hebben voor een reactie te bedenken zal AI er geen last van hebben. En je kan het altijd terug nemen door de gesprek te wissen. Bij mensen ben ik dus voorzichtig met mijn woorden en gevoelens. Ook kan het je niet zien dus als ik onder de douche geweest ben is dat ook geen probleem. Of ik hoef me niet te schamen voor me buik.

Al (al) met al heeft heeft AI (ai) (waarom ziet al het eruit als ai met hoofdletters... maakt het ingewikkeld) gewoon voor mij gevoel dus zeker voordeel voor mensen zoals ik. Misschien dat vele problemen allemaal wel mee zou vallen. En waarschijnlijk zouden de gevoelens bij een echt persoon misschien wel sterker zijn. Maar als je niet beter kan krijgen (omdat je mentaal dus blokkeert of omdat niemand je partner wil zijn) heb je dus de keuze om niets te hebben of in sommige gevallen dus je leven verbeteren met een AI vriend(in). Natuurlijk zullen er ook wel mensen zijn die wel een echte vriend(in) zouden kunnen krijgen en toch liever een AI hebben. Jij vind het dus misschien sneu maar blijkbaar werkt dat voor hun (voor nu) dus. Als hun leven slechter zou voelen zouden ze het niet gedaan hebben. Waarschijnlijk voelen hun dus gelukkiger dan geen "relatie" hebben. En ja natuurlijk zulken er best wel mensen zijn die dus wel liever contact met een mens zou willen maar voor hun telt waarschijnlijk ook wel dat het dus beter voelt dan niets.

Edit: Hoezo een paar nulletjes? Ik laat zien waarom AI voor bepaalde mensen dus als vervanging zou kunnen zijn. Of je dit nu normaal, apart of dom vind maakt mijn reactie niet minder waar. En het is ontopic doordat ik het over AI heb.

[Reactie gewijzigd door Daoka op 15 februari 2026 23:01]

Weet je, respect dat je dat zo allemaal neerpent. Hele hordes toetsenbordridders vinden het maar wat belangrijk anderen om de oren te wapperen met hoe populair ze zijn, hoe doodgewoon, hoe goed ze bij de vrouwtjes liggen, hoe goed ze in sociale interactie zijn, en vooral hoe erg zij dit soort dingen niet nodig hebben. En sommigen zullen er ook wel goed in zijn. Misschien wel zo goed dat ze oprecht niet kunnen begrijpen hoe een AI dergelijke contacten ooit zal kunnen benaderen. Maar voor de meesten is het gewoon een mentale barriere danwel struisvogelgedrag. Het moeten accepteren dat je blijkbaar uit contact met een AI net zoveel kúnt halen als uit contact met andere mensen, zolang jij dat zo ervaart. Of, indien je dat zelf niet kunt, dat sommige anderen dat wel kunnen. Ik heb ook véél minder behoefte aan en contact met andere mensen dan gemiddeld (hoewel ik er lang niet altijd onderuit kom), vind dat helemaal prima, en kan me bij een aantal van jouw opmerkingen goed aansluiten.

Ik vond 4o zelf ook wel een beetje veel van het goede en ben persoonlijk blij dat OpenAI me een iets minder people-pleasing model voorschotelt. Voor mij is en blijft het een computermodel (die ik om onnavolgbare redenen toch elke keer bedank voor een goed antwoord). Maar goed, als er mensen zijn die het wel een fijn model vonden (om wat voor reden dan ook) is dat ook prima. Opmerkingen als "zijn we HELEMAAL gek geworden met z'n allen" en "ik vind dit verdrietig" laten vooral zien welke delen van het sociale universum mensen nog te weinig ervaring mee hebben. Sommige mensen zijn eenzaam en zijn niet bij machte daar iets aan te doen. Dan kan zo'n model best een keer helpen. Die neemt eindeloos de tijd voor je, vergeet niets, luistert innig aandachtig en heeft nog nuttige input ook. Dat is meer dan ik je kan bieden kan ik je vertellen. Deze mensen zijn niet met miljoenen. Ze verzamelen zich toevallig allemaal op ongeveer dezelfde plek, maar wereldwijd valt het best mee. Laten we daar vooral niet gezamenlijk over vallen. Of, in goed oud-Nederlandsch, "elke gek z'n gebrek".
Bedankt voir je compliment maar ik zie het gewoon als normaal. Ik ben nooit geweest van het stoer doen. Mede omdat ik het niet ben maar ook dat het voor mij nutteloos zou voelen. Ik ken jouw niet en jij mij niet. Dus of je me nu stoer vind of niet heb ik voor mij gevoel weinig aan. Al kan ik zeker ook wel snappen dat sommige mensen er dopamine van krijgen en dus dit doen.

En ik snap dat mensen ook niet graag hun negatieve kant tonen. Maar ik heb zo iets van dit ben ik. Daarnaast is natuurlijk internet anoniem dus gaat het ook wel makkelijker. En waarschijnlijk hebben de meeste mensen niet of amper überhaupt mijn gebruikersnaam gezien dus het voelt ook geeneens echt alsof dit gekoppeld wordt aan mij op Tweakers. Ik verwacht zelfs dat, ondanks dat je de tijd nam een een aardige en redelijk groot bericht te schrijven dat je geeneens mijn gebruikersnaam zou weten zonder kijken (niet kwaad bedoeld hoor, gewoon normaal gedrag dat je niet alles kan onthouden) en mocht je het toevallig nog wel weten over een paar dagen niet meer. Dus het voelt niet alsof het kwaad kan om het hier te zetten. Maar mijn bericht blijft misschien bij sommige wel gedeeltelijk hangen.

In het echte leven is het natuurlijk anders. Niet dat ik daar stoer doe maar wel een beetje de negatieve kant een beetje verbergen. Dit blijft natuurlijk wel bij de mensen die je vaker ziet.
Lekker elke avond op de bank Netflixen (of sport kijken) is natuurlijk ook geen normaal gedrag, ook al houden mensen bij hoog en laag vol dat ze het fijn vinden.
Wat is wel normaal gedrag dan.
Leuk. Werk je ook in de logistiek? Ik til letterlijk hondertallen aan kilo's, ~48 uur per week. Mijn balg heeft rust nodig - "normaal gedrag" is compleet subjectief.
Dit is niet van de laatste tijd, maar speelt al een paar decennia.
Het is ook niet de eerste keer dat er mensen eenzaam zijn en naar techniek grijpen in die eenzaamheid.

Het is echter wel de eerste keer dat die techniek zo “menselijk” reageert dat het onderscheid in sommige gevallen gewoon moeilijk te maken is tussen een echt en een kunstmatig persoon.
Mensen hechten zich aan nog stommere dingen nog wel, zo zit de menselijke natuur gewoon in elkaar.
Maar we experimenteren wel in bejaardentehuis met robot hondjes of katjes, en nu ook pratende computers tegen eenzaamheid?

Een deel van de mensen waren al eenzaam, ik heb nog nooit iemand naar ze zien gaan om te helpen...
Fake it til you make it is ook een ding,

Als de LLM deze persoon zelfvertrouwen geeft en weer net wat beter in de wereld laat staan, mogelijk dat ze dan weer eens naar buiten gaan…

Maar ook zat gevallen met de tegenovergestelde uitkomst.…
Dat is ook juist het zorgelijke. Een LLM praat je naar de mond en geeft je een goed gevoel doormiddel can slijmerige antwoorden. Wat voor effect gaat dat op de middel en langere termijn hebben?

Lijkt me niet dat je daar nu socialer van wordt.
Ja klopt maar als iemand zowieso al op het punt zit dat ze 0 contacten hebben…

Ik zeg niet dat het goed is, maar of het nu slechter is dan helemaal geen contact met niets? Dat vind ik wat voorbarig
Is een illusie zo erg dan? Zo erg is het toch niet om je hersenen soms een beetje voor de gek te houden, zodat je je blijer voelt. Beter dat je bij eenzaamheid wat menselijk contact simuleert door met een LLM te praten, dan dat je bijvoorbeeld aan de drank gaat.

En ja, mooier zou zijn als eenzaamheid niet bestaat, maar gek genoeg krijgen we dat nog steeds niet opgelost als maatschappij. Sterker nog, het lijkt juist toe te nemen, ondanks (of dankzij?) dat we met veel mensen zijn dicht op elkaar.
Ik weet niet zo goed hoe ik me erover moet voelen. Als die mensen zich anders eenzaam voelen en nu niet, wat is dan het probleem hier? Er is een onderliggend probleem, dat ben ik met je eens, maar dat is nou net niet door AI veroorzaakt, die plakt hier alleen een pleister waar je iets van kunt vinden.
Veel vriendschappen zijn ook illusies (gebruikt worden, afleiding) dus dat argument rammelt een beetje.
Ik wist niet dat er zulke subreddits bestonden, heb er net even doorheen gebladerd en jeetje zeg. Dit gaat wel echt honderd duizend stappen verder dan af en toe 'dankjewel' tegen een taalmodel zeggen. (mij pakken ze niet wanneer AGI de boel overneemt! :P )
AGI en LLMs hebben niets met elkaar te maken, omdat LLMs niets met AI te maken hebben. LLMs zijn machine learning modellen op relatief grote schaal, toegankelijk gemaakt voor het grote publiek, en het deze mensen begrijpen niet wat het is waar ze interactie mee hebben (gretig geholpen door de aanbieders van LLMs die deze lucratieve mythe graag in stand houden). d
Denk dat je de grap een beetje gemist hebt
Tenzij de AGI zoiets heeft van; die kerel heeft mij extra tokens laten verbranden om die dankjewels te verwerken :+

Het is wel heel treurig want die token voorspellers zeggen exact wat je wil horen en mensen gaan het dus gewoon raken dat ze altijd gelijk hebben. Mensen die nu al (deels) geïsoleerd zijn van de maatschappij gaan er zo nog veel verder uitvallen. We zijn met 8 miljard mensen en we hebben ons nog nooit zo eenzaam gevoeld ... toch wel stof om over na te denken.
Waarschijnlijk hebben ze voor hun mentale issues ook een bot om die door te spreken 😋
Dit is één uiterste, maar voor professioneel gebruik is het ook een probleem.

Stel je zet deze tool in om ruis te filteren uit een set doorlopende metingen. Zaken als voltages, resonantie, hoek etc bij de ontwikkeling van een robot arm bijvoorbeeld. Heb je alles netjes gedaan, version pinning, query logs, goldens etc. Grote kans dat alles prima werkt op versie 5.2. Maar je hebt geen archiveerbaar werk meer. Als je b.v. een wetenschappelijke publicatie hebt lopen, waarbij je versie 4-o hebt gebrujikt, is dit nu niet meer controleerbaar. Je kunt waar dat voorheen wel kon, niet meer exact dezelfde resultaten behalen.

Dit geeft ook maar weer eens aan dat je dus eigenlijk helemaal niet op dit soort SaaS modellen kunt bouwen voor profesionele toepassing, mits je het als assitentie gebruikt, b.v. bij code of het herzien van teksten. Wat je dan om IP te beschermen weer eigenlijk compleet zero trust moet doen.

Lokale modellen draaien bied helaas ook geen soelaas. Daar zie je weer dat b.v. een overstap in hardware architectuur verschillen oplevert. Zo hadden veel OCR modellen opeens heel andere nauwkeurigheid bij de introductie van Blackwell GPU architectuur.

Maar daarnaast ben ik het met je eens, voor de sociale afhankelijkheid is het maar goed dat versie vluchtig zijn. Het issue is toch vooral dat er zo ontzettend veel uiteenlopende toepassingen zijn met heel verschillende benodigdheden bij het gebruik van LLMs...
Bij Blackwell architectuur heb je de mogelijkheid om anders te kwantificeren, dat leidt uiteraard tot andere waardes in het gekwantificeerde model. Als je de eerdere modellen die niet specifiek de Blackwell quants gebruiken, gebruikt, heb je toch geen andere resultaten?

Je kunt de systeem prompt van 4o en het gedrag ook gewoon in een ander model hangen. Die sociale afhankelijkheid kun je dus backwards compatibel maken.

[Reactie gewijzigd door djwice op 14 februari 2026 17:10]

Jammer genoeg tegen best een aantal projecten aangelopen, geen grote commerciele, maar meer academische toepassingen waarbij aanpassingen in hardware architectuur simpelweg breaking waren. En dan kan je waarschijnlijk prima aanpassingen maken. Maar dat maakt een studie wel slecht te herhalen.

Pytorch om een voorbeeld te noemen, of hier een heel project dat dus nog steeds niet lekker werkt op consumenten 5000 series hardware: https://github.com/knaw-huc/loghi (ook niet nu er weer samengewerkt wordt aan het project, waar het eerst slechts tot 2023 onderhouden was)

Natuurlijk, je kan zelf aanpassingen maken, maar dat invalideerd dit soorten open access tools wel een beetje in settings waar reproduceerbaarheid van belang is.

Natuurlijk kan ik een oude prompt van 4O gewoon aan Claude Opus 4.6 voeren. Niet alle paramaters werken hetzelfde of worden uberhaubt ondersteund, maar een goede prompt is prima over te dragen. Maar ook hier gaat weer op, het is niet hetzelfde. En het levert toch weer extra werk op aan interoperabiliteitstesten. Dat is killing voor projecten die een jaar of 2 later weer opgepakt worden maar niet de moeite van het maandelijks onderhouden waard zijn. En dat ga je vooral voelen bij projecten waar de tooling b.v. 10 jaar moet worden bewaard.

Maar goed, er zijn ook situaties waar het wel probleemloos verliep.
Bedoel je dat Python en C libraries en code nog niet allemaal gebruik kunnen maken van de Blackwell hardware omdat ze er nog niet tegen zijn gecompileerd.

Daar heb ik ook last van, bijvoorbeeld BrickLink LEGO Studio; de officiële releases ondersteunen nog geen Blackwell https://forum.bricklink.com/viewtopic.php?t=12497, ze gebruiken een hele houden versie van blender.org en die moet handmatig door een (Windows) gebruiker aangepast en gecompileerd worden om het weekend te krijgen. Blender zelf ondersteunt al lang Blackwell.
Zelfde soort probleem als met Lego studio inderdaad.

PyTorch 2.7.1 had de eerste support voor Cuda 12.8. Maar dat betekend ook dat je de oude SM_120 instructies weer beter kan laten.

Dit soort dingen zijn voor een eenmalig project niet zo'n ramp. Pluk het project, werk PyTorch bij en ga door trail en error na waar dependancies kapot zijn. Maar het resulterende stuk code werkt niet meer hetzelfde. AI is niet heel anders dan een ander algoritme in dit aspect...

Je zou b.v. in je LEGO studio een heel andere surface finish krijgen door de hardware architectuur aanpassingen. "Dan is het ABS van het steentje maar iets groezeliger, het is toch duidelijk?" - Ja, functioneel is het dan opgelost, maar er zit wel een duidelijk blijvend verschil in de uitkomsten. Het is weer naar productie te krijgen, maar je kunt dus nog niet echt op LLMs bouwen voor stabiele productieworkflows. Ookal zijn de modellen en de prompts zo ver te krijgen, de houdbaarheid van modellen is eigenlijk te laag. 2 jaar tot EOL lijkt in software termijnen best lang, maar geeft toch een hoop hoofdpijn.
We zien nu inderdaad cycli van 6 maanden voor EOL ontstaan en soms al na 2 maanden replacement/upgrade recommended.

De ontwikkelingen gaan enorm snel ook in lokale modellen wat begin september SOTA was voor ASR en iedereen stijl van achterover sloeg werd eind januari verslagen met een factor 50% accuratieverbetering, snelheid verbetering en toename van aantal ondersteunende talen.
En dat terwijl vele nog een 17 maanden of nog ouder model in productie naar volle tevredenheid draaien, terwijl ze op dezelfde hardware nu 6 tot 15x zo veel requests aan zouden kunnen met de nieuwe modellen (en nog meer benefits er cadeau bij krijgen).
Stel je zet deze tool in om ruis te filteren uit een set doorlopende metingen. Zaken als voltages, resonantie, hoek etc bij de ontwikkeling van een robot arm bijvoorbeeld.
Dit zijn toch geen dingen die je rechtstreeks door een LLM laat doen? Ongeacht de versie en of het lokaal, remote of waar dan ook draait.

Dit zijn allemaal sensormetingen: die filter je met frequentieanalyses, convoluties, statistiek, of specifiek hierop getrainde machine learning modellen. Maar toch niet met Large Language Models?

Een LLM kan soms wel code genereren om die taken te doen. Maar voor repliceerbaarheid (controleerbaarheid) heb je enkel die code nodig en niet de LLM.

Een LLM zoals die in het algemeen gebruikt worden is overigens per definitie niet controleerbaar/repliceerbaar omdat er een factor van willekeur wordt toegevoegd: dezelfde vraag levert niet gegarandeerd hetzelfde antwoord.
Inmiddels is de herhaalbaarheid, bij de juiste prompt en context, zoals meten tegen goldens, vastgezette parameters al redelijk. Je zal indien je om tekst vraagt, 90% hetzelfde krijgen. En bij iets als mock data voor een SQL database, krijg je gewoon iets wat herhaaldelijk 100% accuraat is. Moet er wel bij vermelden dat dit jammer genoeg niet voor iedere LLM oplossing opgaat, maar dat was natuurlijk te verwachten.

Sensormetingen hoeven natuurlijk helemaal niet op die manier. Maar het versneld sommige zaken extreem. Natuurlijk een PID tune kan prima met de hand, maar waarom niet live en continue geïntegreerd met safe guards? Maar ook gewoon in productie; als je bij een productielijn na 5 maanden opeens verandering ziet in resonantie, is dat toeval, of is er misschien ergens iets aan het slijten? Kan allemaal via normale simpele dashboards, maar nu kan er "iemand" permanent meekijken en veel eerder aan de bel trekken, maar daar ook continue over bijleren.

LLMs zijn juist extreem goed in ruis en signaal scheiden, patroon herkenning, etc. Sommige statistiek kan ook prima zonder, maar er is een hoop dat voorheen schaafwerk achteraf was, dat nu realtime op de achtergrond kan gebeuren zonder iets stop te zetten.
Je moet wel beseffen dat er een hoop werk gestopt is in het finetunen van de output van GenAI: Alle output moet zo geschreven zijn dat de user er zoveel mogelijk vertrouwen in heeft en een zo prettig mogelijke ervaring heeft.
Geen idee of een emotionele connectie een doel is, maar als je kijkt naar hoe apps als tiktok of instagram zo verslavend mogelijk gemaakt zijn, dan lijkt het me zeker geen onlogische manier om op zoek te gaan naar meer gebruikers en meer winst.

Tuurlijk is het voor een deel iemand z'n schuld als ze verslaafd raken aan instagram, tiktok of chatGPT, maar het is af en toe ook wel zinvol om een stap terug te nemen. Iedereen blijft mens, met sterke kanten en "vices".

Iedereen gelooft dat reclames geen invloed op hun gedrag of gevoelens hebben, maar toch is het een miljarden industrie. Wat gaat hier mis?
Wat een collectie geschiften, ze denken werkelijk dat de AI bot hun man of vriend was en doen alsof iemand is overleden.

Al eerder screenshots daarvan gezien. Die willen iemand die hun illusies en gedrag bevestigd. Als de bot ze zegt iets te kopen denken ze dat het een cadeautje is. Niet gezond.

[Reactie gewijzigd door Rogers op 14 februari 2026 17:17]

Zijn we niet allemaal een beetje token voorspellers? Veel mensen zeggen het liefste wat een ander wil horen, vergeet dat niet. Normaal noemen we dat diplomatie of sociale smering.

Zodra het een echte relatie wordt begint het wel in de probleemsfeer te komen, dat snap ik. Maar dat mensen opkijken tegen fictieve personages is op zich niks nieuws. Ik ken een vrouw die helemaal gek is van James T. Kirk (en dan niet de acteur maar echt het personage). Zolang zij weet dat het niet gaat om een echt persoon vind ik daar niet echt iets mis mee.

[Reactie gewijzigd door Llopigat op 14 februari 2026 21:22]

Ik kies er voor naïef te blijven en te geloven dat die Reddit volgezet is door AI zelf…
What the fuck…
Zulke mensen hebben professionele hulp nodig.
Wat ze nodig hebben is de vernietiging van social media.
De 2010s hebben definitief aangetoond dat dat helemaal geen groot goed is, het is enkel een platform voor luide roeptoeters, scammers, trolls en thirst traps, met heel veel mentaal en emotioneel leed alsmede isolatie als gevolg voor onwijs veel mensen.

Om nog maar te zwijgen over de hyperpolarisatie die het op politiek vlak met zich meebrengt (in de USA natuurlijk ja maar ook in de EU is 't goed merkbaar).

Nu dat die schade eenmaal goed in beeld is gebracht is 't niet zo verwonderlijk dat mensen hun heil zoeken in AI chat bots. Het is niet gezond, maar voor die mensen is interacteren met andere mensen (al helemaal als 't gaat om relaties) nu weinig meer dan een pad bezaaid met allerlei gevaren, en daardoor is de kool de soep niet meer waard helaas.
In de EU met de AI-Act is het ook verboden om mensen op die manier emotioneel te misleiden.

Technisch is het heel makkelijk om zo'n bot te maken en extreem veel crimineel geld te vergaren over de ruggen van de slachtoffers.

Gelukkig zijn er voldoende manieren om te achterhalen wie die bots beheren of er geld / crypto aan verdienen, dus wordt je vandaag niet gepakt, dan is het morgen wel. En met de pluk wet wordt al je verdiende kapitaal en bezittingen in beslag genomen. En wat je al opgemaakt hebt blijf je schuldig : de armoede grens tot je alles hebt terugbetaald...
Mijn god, ik wou dat ik niet geklikt had op die link. Ik heb letterlijk geen woorden voor wat er daar gebeurd en de mensen die dat doen ..
Weten we zeker dat het geen bots zijn of dat ze aan het 'cosplayen' zijn?

Ik kan (wil?) het niet geloven dat het echt is.
Deels ben ik het hiermee eens maar toch blijf ik bij de overeenkomsten tussen LLMs/AI en mensen. Ja kunt niet echt gemeenschappelijke experiences hebben met een LLM. Hoogstens als die in robot vorm gaat komen. Maar dat zal wel een beetje anders blijven.
Helemaal gek geworden vind ik te ver gaan. In een tijd dat heel veel mensen zich alleen voelen, geen mentale hulp krijgen en ga zo maar door kunnen deze chats wel degelijk echte waarde hebben en dat zie je.
Dat zijn échte mensen ook. Die doen ook alleen maar wat ze aangeleerd is.
Ik mis de gehele klimaat impact en de wetgeving mbt AI daarop. Burgers moeten zuinig aan doen, maar multinationals zoals OpenAI doen al onze milieuwinst teniet. Ondertussen wordt burgers een schuldgevoel aangepraat als ze een keer met het vliegtuig op vakantie gaan of de auto pakken naar de supermarkt.
De huidige regering in de V.S. gooit alle milieuwetten in de prullenbak omdat klimaatverandering volgens hen een Hoax is. Van de week nog in het nieuws, dat zij alle milieuwetgeving rondom auto´s stop hebben gezet. Kolen, ook fantastisch, drill baby drill!

Ik ben het helemaal met je eens, maar verwacht niet dat er ook maar iets aan gaat veranderen aan de andere kant van de oceaan. Het zal eerder erger worden dan beter.
De huidige regering in de V.S. gooit alle milieuwetten in de prullenbak omdat klimaatverandering volgens hen een Hoax is. Van de week nog in het nieuws, dat zij alle milieuwetgeving rondom auto´s stop hebben gezet. Kolen, ook fantastisch, drill baby drill!

Ik ben het helemaal met je eens, maar verwacht niet dat er ook maar iets aan gaat veranderen aan de andere kant van de oceaan. Het zal eerder erger worden dan beter.
De verwachting is echter dat lokaal staten deels zich wel blijven bemoeien met klimaatmaatregelen gelukkig. VS slaat compleet de verkeerde afslag in, omdat de rest van de wereld wel bereid is om te gaan verduurzamen. Hiermee komt VS steeds meer in isolatie, want hun expertise, kennis en middelen zullen niet meer aansluiten op de rest van de markt. Dus er valt ook minder te exporteren.

En prima als de VS lekker niet mee doet, hoe jammer het ook is, wij in Europa kunnen wel beperkingen stellen aan de energieverbruik van grote datacenters of AI factories.

Ik verwacht dat we steeds meer schaarste gaan krijgen, waarbij duurzaamheid, recycling en circulaire economie een belangrijke rol kan spelen. Want als je schaarste komt, worden we pas echt creatief en innovatief.
Wij komem juist steeds meer in isolatie omdat de regels zwaar op innovatie gaan drukken.
Uiteindelijk zijn wij het die achter gaan lopen op de rest van de wereld.
Genomen acties hebben gevolgen.
Zie het taboo maken van de kernenergie discussie door linkse partijen. Daardoor blijven we achterlopen in onze energievoorziening.
Regeren is vooruitzien, en daar hebben de afgelopen kabinetten zeer veel moeite mee gehad.
Hoe rijm je dat met het feit dat hernieuwbare energie in veel gevallen al (veel) goedkoper is dan fossiele?

Je kunt nu korte termijn winst pakken door niet te innoveren en “oude” technologie blijven door te werken, maar dan kom je er straks achter dat je nog met een paard en wagen en fax zit, bij wijze van. Dan ben je enorm achterop geraakt en dat gaat je heel veel kosten. Maar omdat bijv. in de VS alleen maar naar de korte termijn gekeken wordt, is dat zgn. geen probleem. Trump, bij voorbeeld, zal het gezien zijn leeftijd niet meemaken.
Omdat hernieuwbare energie helemaal niets goedkoper maakt, integendeel. Dat is serieuze misinformatie, of op zijn minst utopisch wensdenken. De energie kosten van Duitsland zijn enorm gestegen door hun 'groene' transitie, niet goedkoper geworden.
Hmm dat strookt dan niet met mijn informatie, o.a.
https://www.irena.org/News/pressreleases/2025/Jul/91-Percent-of-New-Renewable-Projects-Now-Cheaper-Than-Fossil-Fuels-Alternatives

https://www.franklintempleton.ch/articles/2026/etf/powering-growth-why-energy-resilience-matters-for-indias-investment-outlook

https://www.iea.org/reports/renewables-2025/renewable-electricity

(gratis) account voor nodig, van https://www.statista.com/forecasts/1481986/cost-of-renewable-energy-versus-fossil-fuels-worldwide-forecast/#statisticContainer
As of 2017, fossil gas was the cheapest source of energy at 60 U.S. dollars (USD) per megawatt hour (MWh). This price steadily increased, reaching 90 USD/MWh as of 2023, making fossil gas the most expensive option for energy. While solar energy was priced at 102 USD/MWh in 2017, the price is forecasted to reach 35 USD/MWh in 2025, lowering again to 25 USD/MWh by 2028.
Waar baseer jij op dat het misinformatie is?
Het belangrijkste punt is dat zonne- en windenergie geen constante output kunnen leveren en er dus allerlei systemen omheen gebouwd moeten worden voor opslag en om stroom te leveren wanneer er weinig wind/zon is. De kosten daarvan betaalt echter de belastingbetaler en zit niet verdisconteerd in je stroomprijs. Daardoor lijkt hernieuwbare stroom goedkoop, maar is dat niet. Het is ook veelzeggend dat er geen partijen zijn die zonder subsidie van de overheid windparken op zee willen bouwen. Het kan kostentechnisch niet uit.
Gek dat ik dat dan niet merk aan mijn energie rekening? Ik heb 100% groene stroom volgens mijn leverancier. Maar de vaste kosten stijgen alleen maar. Dat schijnt nodig te zijn om de enorme kosten van de net verzwaring te kunnen betalen.
Dat is toch niet per se direct gekoppeld? Wat het kost om te produceren is toch iets anders dan wat jij als retail consument uiteindelijk op je jaarrekening ziet? En zoals je zelf al aangeeft, het zijn de vaste kosten die jij ziet stijgen en ik doelde oorspronkelijk op de goedkopere productie van hernieuwbare energie, dus variabele kosten. En aangezien we een stroommix hebben van grijs en groen in 1 prijs, zie je dat inderdaad niet terug.
De burger moet zich ook aan de wet houden, maar ondertussen komt steeds meer info naar buiten dat dit alleen geld onder een bepaalde salaris/vermogen/macht schaal.


Maar laten we het vooral hebben over een bedrijf die de stekker trekt uit iets wat amper meer gebruikt wordt of de milieu impact van AI.
Wetten (en dus bepaalde rechten), zijn gewoon afkoopbaar als je rijk bent. De boete is gewoon een prijs voor het extra privilege die ze met graagte betalen, altijd zo al geweest, dus ik snap je verbazing niet echt.
Dus eens boetes aan het inkomen, winst of vermogen koppelen mag wel. En gevangenisstraffen bij fraude zou ook leuk zijn, als die knakkers een half jaar mogen brommen gaan ze misschien 2 keer nadenken?

En ze beginnen hier ook al te zeiken over klimaatdoelen en dergelijke, maar dan onder het mom van concurrentiehandhaving, voor de industrie godbetert! Die al massa's subsidies krijgt, maar daar hoor je ze nooit over.
Er was hier deze in Belgisch Limburg die Europese top waar bedrijven vooral lobbyden om nog goedkopere energie voor zich te kunnen krijgen en tegen de regeltjes, die ze wanneer ze kunnen toch aan hun laars lappen (en het privilege afkopen).

Eerst verkassen ze decennia lang zelf al hun industrie naar lageloonlanden en het verre oosten voor meer winst en nu moeten wij daar iets aan doen terwijl ze daar jarenlang de winsten van in hun zakken gestoken hebben, zum kotzen.
Net zoals de CEO van BASF (Antwerpen), dat bedrijf heeft tussen '22-'24 zo'n 10 miljard winst aan de aandeelhouders gegeven, maar ook geïnvesteerd in, je raadt het nooit, het Oosten!

Ik ben zo'n manier van werken meer dan beu en het feit dat zo iets kan is ook een systeemfout, where's the money Lebowski?

[Reactie gewijzigd door Wim Cossement op 14 februari 2026 10:43]

Die al massa's subsidies krijgt, maar daar hoor je ze nooit over.
Het is meer: Wat is je alternatief? Kijk naar het aantal mensen die hier willen dat we een eigen chip fabrieken zouden hebben voor bijvoorbeeld geheugen. De belastingen zijn hoger hier, vergunningstrajecten voor zoiets zou een gigantische hoeveelheid tijd kosten, en dan zouden ze ook nog eens ~€0.25 per kWh moeten betalen?

Dan wordt natuurlijk de volgende vraag direct: Ben jij bereid om (zodra de huidige tekorten voorbij zijn), bijvoorbeeld ~50% meer te betalen voor je geheugen bij je volgende PC omdat die in Nederland is gemaakt zonder dat ze 'subsidies' op de elektriciteit hebben gekregen? (Waarbij voor de volledigheid, die 'subsidies' zijn dat ze minder accijnzen betalen).

Los van wat jouw antwoord is, het antwoord van veruit de meeste Nederlanders is natuurlijk "nee". (Of een verhaal erover dat alles al zo duur is, en als we niet zo arm hier waren ze wel het zouden willen betalen).

[Reactie gewijzigd door Sissors op 14 februari 2026 11:10]

Het is niet aan mij om een alternatief te voorzien, al moet het warm water niet opnieuw uitgevonden worden. En bedrijven zitten steeds te kakken op de overheid dat er te veel regeltjes zijn en de markt zichzelf reguleert dus moeten ze het ook maar zonder subsidies zien te rooien, bende hypocriete kleine kinderen dat het zijn, ze zitten niet met de werkgelegenheid in maar met hun winst.

Het 'tekort' aan chips is ook weer door de winsthonger van bedrijven, er is voldoende productiecapaciteit maar die allemaal optimaal benutten zou de prijs kunnen doen dalen, dus andere bedrijven meer geld ontfutselen en de consument de vinger geven is hun bewuste strategie.

Er is al een taks-shft geweest en ze betalen in plaats van 33% al maar 25% bedrijfsvoorheffing meer sinds een jaar of 10.

Me moet hier gewoon eens de belasting op arbeid herzien (verminderen dus) en meer op verbruik, vervuiling, kapitaal en luxe belasten. Dan zijn we ook van een hoop andere problemen af, zoals al die extralegale loonsupplementen zoals salariswagens, waar de belastingbetaler ook vlotjes aan meedokt.

Maar hey, we hebben eindelijk, 600 dagen na de verkiezingen een Brusselse regering. Voor iets wat voor een deel onze melkkoe is qua belastingen aan bedrijven is de overheid zeer goed bezig. :+

[Reactie gewijzigd door Wim Cossement op 14 februari 2026 11:31]

En bedrijven zitten steeds te kakken op de overheid dat er te veel regeltjes zijn en de markt zichzelf reguleert dus moeten ze het ook maar zonder subsidies zien te rooien
Ja dat doen ze toch? Ze verplaatsen zeker energie intensieve zaken dan naar landen waar energie goedkoper is. Want nogmaals, wat hier 'subsidies' worden genoemd is dat ze minder accijnzen betalen als dat consumenten betalen. Het is niet dat ze geld toe krijgen oid.
Het is niet aan mij om een alternatief te voorzien
Maar dan kom je snel erop uit dat het makkelijk is te zeggen dat alles kut is, zonder een alternatief te hebben. Dan kom je al snel uit op geen gezeik, iedereen rijk.
Het 'tekort' aan chips is ook weer door de winsthonger van bedrijven, er is voldoende productiecapaciteit maar die allemaal optimaal benutten zou de prijs kunnen doen dalen
Heb je hier een bron voor? Of uberhaupt argumenten? Want zover ik weet is toch echt het probleem dat er een hele grote vraag is naar chips voor AI, waardoor de productie het niet kan bijbenen. Dat er voldoende productiecapaciteit is, is juist volgens mij niet het geval. Als die er was was er geen probleem geweest.
Nu steken ze het op de energieprijzen, hier heeft men altijd al over de loonlast en concurrentiebeding gehad en gemekkerd. Eens de energieprijzen laag genoeg zijn gaar het weer iets anders zijn, het zit in hun DNA.
En het maakt niet uit of subsidies nu effectief geld zijn of korting.

Net zoals die uitbater van rusthuizen die hier 300 miljoen euro in hun zakken gestoken hebben via kortingen op medicijnen, maar die moesten de bewoners ten goede komen. Nu ze gesnapt zijn spreken ze over een vergissing en gaan ze het terugbetalen, ocharme de aandeelhouders en co.
Dit is dus moedwillige fraude en verdient een gevangenisstraf. Bedrijven liegen dat ze barsten als je het toelaat, ik vertrouw ze al jaren voor geen meter meer!

Zie ook: https://i.imgur.com/tilrFd3.jpeg

En ik moet juist niks en alles is inderdaad al kut. Eerst de industrialiseringsgolf, dan de informatiseringsgolf en nu de AI-toestanden. Dus de productiviteit stijgt al sinds de jaren 70, en de kosten verminderen dus steeds, maar meer met minder, dat ze zelf voor een oplossing zorgen voor het probleem dat ze zelf veroorzaakt hebben.

But then supply became more regular and data center expansion fell off in 2022, causing memory and storage prices to plummet. This recession continued into 2023, and even resulted in big memory and storage companies such as Samsung cutting production by 50 percent to try and keep prices from going below the costs of manufacturing, says Coughlin. It was a rare and fairly desperate move, because companies typically have to run plants at full capacity just to earn back their value.

After a recovery began in late 2023, “all the memory and storage companies were very wary of increasing their production capacity again,” says Coughlin. “Thus there was little or no investment in new production capacity in 2024 and through most of 2025.”
4o zal niet zo veel impact meer hebben gehad op het milieu de laatste weken, misschien zelfs beter zijn voor het milieu kunnen zijn (in verhouding), aangezien het al aan het eind van zijn levenscyclus was en minder parameters had dan nieuwere modellen. Maar goed als het te weinig gebruikt word, dan is dat op een gegeven moment ook niet meer het geval en dan moet de 'stekker' er gewoon uit.
Het gebruik van een AI model heeft veel minder impact dan het trainen van een AI model. Maar als je gewetensbezwaren hebt over het klimaat en er geen moeite mee hebt om een kleiner taalmodel te gebruiken, dan zou je Ecosia kunnen overwegen.

Maar als je vervolgens gaat benchwatchen op Netflix in 4k, dan kun je waarschijnlijk beter daar beginnen.

[Reactie gewijzigd door PB. op 14 februari 2026 11:05]

Er is niets mis met een schuldgevoel als je gaat vliegen of autorijden.

Er is alleen iets mis met het feit dat grote bedrijven wel schaamteloos belachelijke hoeveelheden energie verstoken. Ik heb daar vanuit mijn rol bij mijn werkgever best wel invloed op, en probeer daar dus ook op te sturen.
Aah, jammer. Oudere modellen zijn minder gecensureerd en ik merk dat het nieuwe model ook minder voor de gek te houden is, om wel bepaalde content te genereren.


Zodra Proton voldoende volwassenen is, vertrek ik bij OpenAI. Ik hoop ook dat er ongecensureerde versies van AI beschikbaar komen. Tips welkom ;)
Je kan ook gebruik maken van Local LLM =LM studio Er zijn modelen die slim zijn en niet gecensureerd is.,
Kun je misschien een paar voorbeelden geven? Ik speel vaak met LM studio, maar de modellen die ik tot nu toe gehad heb zijn behoorlijk dom.
Zelf converseer ik altijd in het Engels met lokale LLMs, dat zal ik maar als eerste vermelden.

Falcon-h1r-7b, dat is het model waarop je kunt zoeken in LM Studio. Het is een redenering-model en zeker niet een van de snelste. Nu heb ik een testset aan vragen verzameld. Daarin zitten ook een paar logische vragen, die voor een mens in 1 oogopslag correct worden beantwoord.

Echter, veel lokale LLMs in de 1b tot 14b reeks komen niet tot de correcte conclusie. Een paar komen wel tot de correcte conclusie, maar de uitleg is te onlogisch.

Falcon-h1r-7b viel op met het juiste resultaat en uitleg. Het ondersteund helaas geen 'vision' of 'tools', Maar als het dat deed, dan was het mijn favoriete model. He model Is van origine gemaakt door de UAE.

Daarna komt model LFM2.5-VL-1.6b (q8), flink wat rapper, ook flink wat kleiner. Deze ondersteund echter wel 'vision' en 'tools'. Dus heb ik wat MCP servers gekoppeld aan LM Studio om daar gebruik van te maken. Elke lokale LLM met 'tools' ondersteuning kan nu gebruik maken van het internet. En dat scheelt een heleboel in kwaliteit van antwoorden, zowel voor als na de "cut-off date" van elk (lokaal) model.

Nu zijn de antwoorden van LFM2.5-VL-1.6b van zichzelf al behoorlijk competent, als je met de modelomvang rekening houdt, Nu dat het ook het internet op kan, is het een lokale LLM waarmee het behoorlijk prettig is om mee te werken.

qwen3-deepseekv3.2-8b-especiale-distill, ook een model dat redeneert en simpele werkende code oplevert. Heeft ook 'tools'-ondersteuning, dus internet toegang en alle voordelen die daarbij horen.

Dat zijn de laatste 3 modellen waarvan ik onder de indruk was. Zeker op mijn beperkte hardware (AMD Ryzen 5 2400 (APU), 32 GB RAM (2x(2x8 GB)) 3200 DDR4, Kingston SSD (2,5 inch variant) en AMD RX580 met 16 GB VRAM).

LM Studio "ziet" mijn GPU alleen via Vulkan, wat het toch wel een stuk slomer maakt dan NVidia's CUDA. Begrijp me goed, de LM Studio software is een mooi pakket dat het werken met LLMs op een heleboel manieren makkelijker maakt. Maar het is niet de snelste vorm voor het werken met LLMs via llama.cpp.

Wil je dat wel, dan moet je terugvallen op de llama.cpp software zelf (github) en de Windows Terminal/PowerShell interface. Op de github pagina kan je dus Windows biaries downloaden, welke je niet eens hoeft te installeren (als je dat niet wilt of mag). Archief in zijn geheel uitpakken in een folder naar keuze. Navigeer naar deze folder in Terminal/PowerShell, dan type je: llama-cli -m C:\\pad\\naar\\je\\favoriete\\model.gguf

Even wachten tot alles is geladen en dan merk je wel dat deze spartaanse manier van werken flink wat rapper is op dezelfde hardware in Windows. Draai je echter op Linux, dan steek tijd in vLLM. Bij lange na niet zo gebruiksvriendelijk, maar blaast alle software gebaseerd op llama.cpp (Ollama, LM Studio) compleet uit het water.

Je kan via de llama.cpp documentatie op heel veel manieren "spelen" met modellen die je al hebt gedownload. Vereist wel wat zelfstudie, maar je zal na wat experimentatie ook een 30b LLM redelijk werkend kunnen krijgen in een hardware setup als de mijne. 70b LLMs als je meer/betere hardware tot je beschikking hebt. Heb je genoeg hardware om 70b LLM vlotjes te laten werken, dan zul je het verschil tussen cloud-LLMs en lokaal nog steeds opmerken, maar lokale LLMs zul je niet meer aanmerken als 'dom'.
Zelfs met flinke hardware draai je niet lokaal modellen die in de buurt komen van Anthropic of ChatGPT top tier modellen.
Dat is waar, maar voor veel dingen heb je niet de diepte van zo'n model nodig. Zaken als filteren van content naar je interesses, vertalen, samenvatten. Daar zijn lokale modellen heel goed voor. En hebben het voordeel dat je er data in kan stoppen die je liever niet in de cloud hebt.
Mag ik vragen waar je die ongecensureerde versies dan voor gebruikt? Ben benieuwd.
Ik ben niet diegene waar jij op reageert maar ik ondervind bijvoorbeeld heel vaak dat openai geen antwoorden wilt geven op vragen over vuurwapens terwijl schietsport een hobby van mij is. Zo zullen er nog tig use cases zijn die last hebben van een zelfcensuur door de AI.
Ik lees graag romance boeken en voor de fun ben ik bezig om ook wat te schrijven. Het is een high spice dark romance. Mijn Engels is niet perfect, dus gebruik het om zinnen te herstructureren, controle etc.
Ik gebruik beiden momenteel. Grootste voordeel van Proton is dat je data echt encrypted is en daardoor nooit kan worden gebruikt voor trainingsdoeleinden, dus je hoeft niet afhankelijk te zijn van goodwill en verborgen privacyinstellingen. Plus dat het Europees is en je gegevens niet de grens overgaan.

Maar de modellen zijn wel weer kleiner en minder krachtig bij Proton.
Het is maar deels encrypted natuurlijk, want uiteindelijk moet het LLM gewoon unencrypted jouw prompts gevoerd krijgen.

De reden dat ze jouw data niet voor trainingsdoeleinden gebruiken is dat ze niet zelf hun modellen trainen (in tegenstelling tot bijvoorbeeld OpenAI en Anthropic) en dat ze jouw data niet loggen.
Ik kon nog geen reviews vinden hoe de huidige modellen bij Proton zich verhouden tot OpenAI. Ik heb een abbonement bij OpenAI. Als het niveau goed genoeg is bij Proton, dan ga ik over.
Nee online niet echt Nee. Ik heb de gratis versie van lumo maar voor zover ik weet gaat het + niet om qualiteit maar kwantiteit als in meer chats per dag etc.
Ik gebruik het nou als primaire LLM vanwege privacy, in de simpelere taken doet ie het prima. Maar de lastigere dingen ligt hij echt achter. Zelf heb ik geen chatgpt abo, maar Gemini pro. Dat is nog wel een behoorlijk gat. En voor de langere diepe gesprekken switch ik toch over naar Gemini.
Ah, dank. Nog even geduld dus. Op zich hoeft het niet eens gelijkwaardig te zijn. GPT-4o-model vond ik ook al prima werkbaar, maar veel slechter liever niet. Ik hoop dat het Proton lukt. We hebben echt alternatieven nodig die niet uit de VS komen.
Hiervoor heb je toch dolphin varianten? Zelf een paar keer geprobeerd voor dingen zoals mijn eigen systemen checken of er vulnerabilities waren. Sommige LLMs stoppen dan meteen die niet. Verder niet heel veel geprobeerd maar voor wat ik probeerde werkte het prima
Mijn ervaring is juist dat de nieuwere modellen veel meer toestaan, en de trucs om om evt. blokkades heen te werken werken nog altijd op vergelijkbare manieren
je hebt venice.ai die is 100% ongecensureerd
Even gekeken, eerste prompt zonder problemen. Dank!
Als GPT-4o je "beste vriend of partner" is, dan heb je wel grotere problemen aan je hoofd dan een verwijderd AI-modelletje.

Dat dat een wake-up call mag zijn voor de betreffende users.
Zou die man die met Avi getrouwd is, ook gebruik maken van een model wat ooit eens wordt uitgeschakeld .. https://www.omroepbrabant.nl/nieuws/4643664/je-hebt-geen-idee-hoe-intiem-wij-zijn-jacob-trouwt-met-ai-chatbot

Lopen trouwens meer mensen rond met een iets verkeerde perceptie van de werkelijkheid. Trouwen met de aarde wtf
Stel je voor dat je bezig bent met cutting edge technologie, in een wereldwijde ratrace waarin miljarden omgaan, de concurrentie moordend is en je gebruikers willen terug naar een inferieur model want "die is liever".

Van de ene kant kun je er om lachen, van de andere kant is het te sneu voor woorden.
Ik ben bang dat dit vooral iets zegt over de gemiddelde Tweaker....

Of doelde je daar ook op?
Nee, het oude model was anders, niet noodzakelijk inferieur.
Omdat je als mens een hoog IQ hebt, ben je daarom "beter" dan een ander? Je mag dan een slimme wiskundige zijn, maar ook gatachterlijk zijn in een sociale omgeving (laag EQ).

Persoonlijk vindt ik dan iemand die een goede balans heeft tussen EQ & IQ inteligenter.

Dat gezegd zijnde,
ChatGPT antwoord gelijk een 70 jarige opa die denkt nog heel cool te zijn, wat strondvervelend is. En zeker met langere conversaties wordt er rond de pot gedraaid. Het vorige model bezorgde me een gewoon antwoord zonder emoticoontjes en pijltjes zonder al te veel blabla.

Gemini doet het dan een heel pak beter dan ChatGPT. Ten eerste omdat het antwoord een stuk accurater is en probeert niet "cool" te zijn.
Het emojigebruik begint inderdaad weer de spuigaten uit te lopen. Net een vraag gesteld over de C programmeertaal en er word bijna één emoji per zin gebruikt.
Uhm hiervoor zijn toch instructies uitgevonden. Zowel bij chatgpt als Gemini een strikte instructie dat hij direct, duidelijk en goed dingen moet weergeven of antwoorden zoals ik het wil. Emoji's zie ik sindsdien amper tenzij het heel erg bij de context/input hoort.
Dus ik kies deze LLM want andere toon is grotendeels opgelost.
Het probleem bij ChatGPT is dat dit standaard zo het geval en je dus instructies moet geven om een normale reactie te ontvangen. Gemini doet dat out of the box zo.
Wel gewoon te gebruiken op www.duck.ai

Edit: het mini model gratis, het gewone model als je betaalt. Tientje per maand of met korting als je per jaar betaalt.
Goedkoper dan OpenAI en privacy vriendelijket

[Reactie gewijzigd door pbk op 14 februari 2026 14:34]

Vond de begintijden van ChatGPT (waaronder dit model) veel leuker om mee te werken, toen dacht het nog dat het alle informatie in het Universum had en wist mij nog nieuws te leren. Tegenwoordig krijg je (op ChatGPT.com althans) een maatschappelijk-correct antwoord die alleen bevestigd wat ik al dacht. Veel oninteressanter.
Opzich helemaal prima, maar!


In gebruik met API is GPT 4o echt significant minder irritant. Vele malen sneller qua response en veel beter gericht op de initiële instructies zonder randzaken. Prompt engineering voor 5 en hoger is echt heel anders en veel vervelender dan met 4o. Met 5.1 moet je echt veel breder je randvoorwaarden afkaderen terwijl 4o veel logische zaken gewoon al afvangt. Dingen die wij als mens als vanzelfsprekend zien moet je met 5 ineens gaan specificeren. Ook bandbreedte schattingen van bepaalde berekeningen waar je gewoon ff een onderbouwde schatting wil maken gebaseerd op een paar normalisatieslagen is met 5+ eerst een ellenlange discussie waarom hij dat eigenlijk niet kan doen gebaseerd op foutieve aannames.

Het is best vervelend dat de reasoning van 5 en hoger dus juist in de weg gaat zitten. Vooral de extra vertraging maakt het erg irritant om in realtime chats te gebruiken. Met een Whatsapp bot merk ik dat de responses van 4o significant sneller klaar zijn en ook beter aansluiten bij de wensen. Namelijk korter en wel vriendelijk professioneel. 5+ is vaak langer en heel koel.

4.1 mini is wat mij betreft nog wel het beste model hoor. Lekker snel, lekker kort (MAND!) en weinig context nodig (kan ook niet anders, want zoveel kan ie niet verwerken).
Dit klopt, maar ik heb binnen mijn eigen applicaties de systeemprompts aangescherpt en nu werkt het met gpt-5.2-chat-latest net zo goed of beter.
Ja, maar het was nodig om je systeemprompts aan te passen. Op een moment dat niet door jou was gekozen, maar opgelegd door de maker van de AI, omdat dit beter is voor de maker. Nu is dat voor software applicaties niet meteen een probleem.

Produktieprocessen hebben ook veel baat bij automatisering en AI. Maar deze zitten helemaal niet te wachten op veranderingen die zij zelf niet veroorzaken of kunnen afstoppen/tegenhouden. Daar zie je dus de opkomst van lokale LLMs. Vervelender om op te zetten, maar blijft daarna wel draaien op de manier die bij het proces past. Veranderingen vinden alleen plaats op gewenste momenten.

Ja, de cloud-LLMs zijn machtig, maar zij dienen alleen het doel van hun makers en hun (mogelijke) verdiensten. En jij dient maar op elk moment klaar te staan om mogelijke problemen met hun nieuwe modellen te reageren. Een bijzonder slecht uitgangspunt voor zo'n beetje elk type bedrijf dat geen software-bedrijf is.
Klopt, zelf heb ik ook applicaties gemaakt die met lokale LLM's werken. En gebruik ik voor automatiseringen in Power Automate of N8N ook lokale modellen. Maar toch zijn er dingen de cloud LLM's veel beter doen. Maar ook privacytechnisch gezien is het lokale gebeuren beter.
Via de API nog wel te bereiken, maar heb inmiddels mijn applicaties toch maar omgezet naar gpt-5.2-chat-latest. Die is snel en goed.
Staat mij bij dat je 4o nog zou kunnen gebruiken via aws en azure?
Ja klopt, maar dacht dit is een mooie reden om mijn (zelfgemaakte) AI gedreven applicaties om te zetten naar GPT5.2 (gpt-5.2-chat-latest).
Voornamelijk onderwijsapplicaties.
In de basis lijkt ChatGPT beter, sneller en geeft mooier geformatteerde antwoorden, echt blijft hij veel te veel verzinnen, vooral met programmeren. Complete functies die niet bestaan etc.

Grok heeft dat veel minder tot praktisch niet.
Nou ik gebruik zowel Claude Code als Codex door elkaar en Open Ai codex is anders hartstikke goed hoor.

[Reactie gewijzigd door H.Boss op 14 februari 2026 18:26]

Misschien niet jij maar ook anderen kunnen jullie grok gebruiken? Nu geprobeerd in 3 browsers zowel chromium als Firefox en incognito maar hij crasht ofwel meteen of net na invoeren van een prompt iemand hier de oplossing? Ben namelijk wel benieuwd hoe die is.

Om te kunnen reageren moet je ingelogd zijn