Dell schroeft AI-marketing terug: 'Consument koopt daar geen pc voor'

Dell doet een stap terug in het aanprijzen van AI voor zijn computers, omdat consumenten hun computers niet kopen op basis van AI en ze AI verwarrend vinden. Dit zegt pc-directeur Kevin Terwilliger van Dell op de CES, die deze week plaatsvindt in Las Vegas.

Dell blijft zich wel richten op het bieden van AI-mogelijkheden in zijn apparaten, stelt Terwilliger in een briefingsessie op techbeurs CES, waarvan PC Gamer verslag doet. De topmanager bij Dell geeft aan dat alle systemen die het bedrijf nu aankondigt op de CES een ingebouwde npu hebben. Zo'n AI-chip is beter in het uitvoeren van AI-taken dan reguliere cpu's en gpu's.

Terwilliger geeft aan dat de marketingboodschap van Dell voor de aangekondigde producten niet AI-first is. "Het is dus een beetje een verschuiving ten opzichte van een jaar geleden, toen we helemaal op de AI-pc gericht waren." De computermaker geeft aan dat consumenten niet zo geïnteresseerd zijn in AI of AI-pc's. Dell heeft afgelopen jaar gemerkt dat consumenten niet kopen op basis van AI, aldus Terwilliger. "In feite denk ik dat AI consumenten waarschijnlijk meer verwart dan dat het ze helpt."

NPU in Taakbeheer, Dell
Een npu in Taakbeheer op een Windows-pc toont aan dat een computer een AI-pc is.

Door Jasper Bakker

Nieuwsredacteur

07-01-2026 • 12:07

200

Reacties (200)

Sorteer op:

Weergave:

Wat zijn nou eigenlijk use cases voor local AI. De meeste AI die ik aanraak zit in de cloud…?
De term AI wordt ook te pas en te onpas gebruikt. Wat een paar jaar geleden nog "Smart" was (bijvoorbeeld het terugklokken of juist overclocken van onderdelen in je pc) heet nu ineens "AI" terwijl de werking ongewijzigd is. Totaal nonsense gebruik van de term "AI". Een slimme lader die kijkt met hoeveel Ampere/volt hij kan laden? Ram er maar het woordje AI op. Een laadpaal die kijkt of een tarief over een tijdsbestek van 24 uur een dieptepunt heeft (en gaat laden)? Noem het maar AI. Er zal vast ergens een momentsleutel liggen in een schap die " AI" heeft omdat die automagisch zorgt dat je een moer niet te strak aandraait. Het is echt lachwekkend hoe de term AI op het moment misbruikt wordt in marketing.

Dat is ook precies de reden waarom het bij veel mensen de strot uit komt en er steeds meer weerstand tegen is. Ik heb echt het idee dat er bij marketingafdelingen compleet wereldvreemde mensen werken.
Er is vooral veel weerstand tegen AI omdat het gebruikt wordt om het dagelijks leven van vrijwel elke non tech miljardair te disrupten. Het proberen weg te gummen van banen voor zo meer efficientie etc. Naast dat 90% van wat generative AI gewoon slop is.
Ik denk dat er vooral veel weerstand is omdat veel van de AI-tools totaal nog niet presteren zoals ze wensen. De AI 'experts' duiken overal op, maar bij de meeste van mijn usecases waarbij ik gebruik zou willen maken van AI is het toch totaal onbruikbaar gebleken.

Garbage in = Garbage out - ook in AI-wereld. De datasets waar het nu opgetraind is, zijn veel te breed waardoor de waarde van de output ook veel te laag is.

Just my two cents.

[Reactie gewijzigd door Martinez- op 7 januari 2026 14:10]

Zolang de zogenaamde LLM wave de hoofd stroming blijft gaat dit niet veel beter worden. Het begrijpt de materie niet. Zelfs met kwalitatieve data sets hallucineert het enorm. Helaas bij mij binnen de business ook een aantal AI producten, want tja je moet erg toch enigzins in mee gaan, investeerders enzo. Is de technologie er gewoon niet.

Het kan bepaalde subtaken sneller maken maar voor primaire taken is een mid level werknemer gewoon veel beter.
De term AI wordt ook te pas en te onpas gebruikt. Dat is ook precies de reden waarom het bij veel mensen de strot uit komt en er steeds meer weerstand tegen is.
Dat is wat mij betreft echt een non-argument. De hoofdreden is het falende van het benutten van de NPU. Dus het benutten van lokale AI. AI die we nu kennen draait vooral in de cloud of draait op uw GPU. Bijna niets draait op de NPU wat er vroeger (smartphones) ook niet op draaide.

Wat consumenten nodig hebben is relevante lokale AI. Anders heeft het totaal geen nut dat een PC AI-ready is of co-pilot ready. Aangezien er geen nut is voor de NPU is het onverstandig om daar nog marketing rond te voeren. Althans dat is nu het geval.

De gewone consument wil smart en AI en weet ik wat maar dat moet het wel iets opbrengen. En nu kan iedereen op GPT zonder een AI-PC. Dus dat label heeft 0 toegevoegde waarde.
Het gaat in dit nieuwsbericht specifiek om de "marketing" van AI en niet de toepasbaarheid er van. Als je het over de toepasbaarheid hebt dan kun je idd nog veel andere redenen verzinnen waarom er weerstand is (milieu, banen, copyright).
Laten we het dan zuiver houden: het gaat in dit nieuwsbericht specifiek om de marketing van Dell-PC's. Tot voor kort was de gedachte van de marketeers dat het aankoopbevorderend zou zijn om bij deze PC's te benoemen dat je er "AI" mee kon doen. Nu is het inzicht gekomen dat dit voor de consument blijkbaar geen onderscheidende aankoopreden is, en dat de marketinguitingen zich dus beter op andere aspecten van de producten kunnen richten.

Dat Dell dacht dat de consument hier wel iets bij zou voelen is wellicht dan WEL te wijten aan de "marketing van AI", die achterbleef op de daadwerkelijke toepasbaarheid.
Het gaat in dit nieuwsbericht specifiek om de "marketing" van AI en niet de toepasbaarheid er van.
euh.. Ja daar alludeer ik toch ook op? Marketing vermarkt producten en features. Dus dell verkoopt 'AI-pc's'. Dat zijn computers met een NPU om lokaal AI te draaien. Maaaaar, er is helemaal geen lokale AI om te draaien dus de waarde die de AI-sticker vertegenwoordigd heeft geen toegevoegde waarde in de praktijk. En het heeft ook niets te maken met andere cloud AI in het wild.

Begrijp je het verschil?
AI die we nu kennen draait vooral in de cloud of draait op uw GPU
Ja daar heb ik mijn laatste laptop ~5 jaar terug op geselecteerd: voor AI had je toen CUDA nodig. ( en videokaart was ook handig voor gimp en blender waar ik van plan was mee te gaan werken, maar doorverhuizing nooit van gekomen)

Als 'normale' consument met lichte interesse in AI en preferentie om dat dan lokaal te kunnen heb ik geen idee of dat nog steeds zo is, en of Cuda automatisch gebruik kan maken van die NPU, of dat het van het programma afhankelijk is. Of hoe groot het verschil is, vergeleken met meer ram etc.

Dus wat dat betreft heeft Dell een punt.

[Reactie gewijzigd door mbb op 9 januari 2026 04:57]

Precies, of wat nog eerder gewoon machine learning heette. Vijfentwintig jaar geleden had je al auto's met automatische versnellingsbakken die zich qua schakelen aanpasten aan de rijstijl van de bestuurder (o.a. Volvo). Zou nu waarschijnlijk ook een AI sticker op geplakt worden.
Zoeken in je bestanden, simpele taken op je PC voor je uitvoeren, teksten vertalen/inkorten die je niet in de cloud wilt stoppen, fotokwaliteit (uiteraard kunstmatig) verhogen.

En dat zonder commando's te hoeven kennen maar dmv simpele vragen/menselijke taal.

[Reactie gewijzigd door watercoolertje op 7 januari 2026 12:16]

Zoeken in je bestanden, simpele taken op je PC voor je uitvoeren, teksten vertalen/inkorten die je niet in de cloud wilt stoppen, fotokwaliteit (uiteraard kunstmatig) verhogen.

En dat zonder commando's te hoeven kennen maar dmv simpele vragen/menselijke taal.
Dit is wat mij betreft het grootste probleem met AI. Het is een oplossing op zoek naar een probleem.
- Zo'n 25 jaar geleden konden we al IN bestanden zoeken.
- Simpele taken uit laten voeren door AI is op dit moment nog echt een drama. Het werkt gewoon niet goed.
- Teksten vertalen/inkorten die je niet in de cloud wilt hebben? Niet iets wat veel mensen typisch doen op hun computer, maar ok dat is wellicht iets waar je een LLM voor kunt gebruiken als je het zelf echt niet kunt of wilt.
- Fotokwaliteit verhogen doen we ook al decennia lang met allerlei tools. Vroeger, heel heel lang geleden waren er al "rode ogen" filters, kleur correctie, mensen-uit-de-foto-halen en andere tools.

Het grootste probleem wat ik nu zie is dat AI ronduit slecht is in de taken die het uitvoert. Je moet constant de resultaten controleren en verbeteren of je moet accepteren dat er fouten in zitten. Al dat extra werk zorgt ervoor dat je er netto weinig mee opschiet of dat de kwaliteit van je werk omlaag gaat. Het is niet voor niets dat AI gegenereerd werk "slop" wordt genoemd. De kwaliteit laat veel te wensen over.

Ik ervaar AI een beetje als motion controls voor gaming. Denk aan de Wii en Xbox Kinect. Het is onnauwkeurig en laggy, je maakt veel fouten, je kunt het niet precies daar krijgen waar je zijn moet. Maar heel veel mensen zijn er enthousiast over.
Je loopt echt hopeloos achter.

Gisteren nog. Boekhouder wou rekening afschriften hebben van Amex.
Alleen Amex levert PDF of Excel bestanden. Hij had liever CAMT.053 xml.
Nu moet hij elke regel in de PDF langs om handmatig in boekhoud programma te kloppen

Heb ongeveer 15 minuten met Claude Code (opus 4.5) bezig geweest met de vraag.
Maak een windows exe die een Amex excel inleest en omzet naar CAMT.053
Ik gaf de excel mee als voorbeeld

Resultaat is een herbruikbare single file windows exe die een Amex excel inleest en converteert.

Dit scheelt mij dus uiteindelijk zeker 2 uur administratie kosten elke maand.

Elke dag kom ik dingen tegen waar de AI mij gewoon tijd en geld scheelt. En het word steeds beter en geavanceerder.

Dus ja, je loopt hopeloos achter.
Dit lijkt me nu echt net zoiets wat je niet door gegenereerde black-box AI code wil laten doen eerlijk gezegd, als je zoals je zelf aangeeft hier maar 15 minuten mee bezig te zijn geweest dan weet ik wel vrij zeker dat je de gegeneerde code nooit goed hebt kunnen bekijken en dus eigenlijk geen enkel idee hebt of het daadwerkelijk doet wat je wil. Als Amex een keer een kolom toevoegt of het nummer formaat wijzigt, of de land instellingen van de computer waar je die .exe op draait punten gebruikt voor cijfers in plaats van komma's, als er ergens lege regels tussen staan, etc.

Het is allemaal best knap dat je een scriptje zoals dit door een LLM kan laten maken, maar een enigzins competente programmeur zal zo'n scriptje ook gewoon in een paar uurtjes inelkaar kunnen draaien, een PDF or Excel parsen en daar een XML tree van genereren in Python ofzo stelt niet zo veel voor, en als je weet wat je doet zorg je dan ook er voldoende checks op formaat en output in zitten zodat je nooit per ongeluk verkeerde input kunt verwerken etc. Dan kun je zeggen 'ja maar nu kan ik het ook zelf en in 15 minuten, dus dat scheelt me geld' maar afhankelijk van wat jouw boekhouder met die rapportjes doet zou dat nog wel eens duurkoop kunnen blijken. Een beetje als zelf met slecht materiaal aan je riolering gaan zitten kloten in plaats van een loodgieter te bellen 'want dat is sneller en scheelt me geld'.

[Reactie gewijzigd door johnbetonschaar op 7 januari 2026 14:57]

Voor nu is het geen black-box AI.
Het is python of c# code die volgt aan de hand van mijn ontwikkel instructies en guidelines.
een competente programmeur zal hier zeker wel 4 uur nodig voor hebben voor een prototype + 2 dagen werkt om het productie klaar met documentatie, volledig getest, etc te hebben.

De assumpties dat de code die gegenereerd word slop of inferieur zou zijn klopt niet. Voor nu heb je wel iemand nodig die beetje logisch en gestructureerd kan nadenken en de juiste vragen en checks kan doen. Maar ook dit zal steeds minder hoeven.

En de punten die jij aanhaalt over dat Amex iets zou wijzigen of een pc andere landinstellingen heeft. Juist daar is de huidige generatie van AI al beter dan de mens. Hoe vaak ik wel niet code onder ogen krijgen van medior en senior devs met zulke domme fouten.

Nee dat AI software ontwikkeling radicaal gaat veranderen is wel duidelijk. Mensen die nu roepen. "Ja maar x werkt nog niet, of y kan die nog niet" lopen tegen een snel wegrijdende auto te klagen. De technologie gaat namelijk gewoon door en veel harder zelfs.
Je zegt dat het je 15 minuten gekost heeft. Alleen al de prompt intiepen en wachten op het antwoord van de AI gaat je al 15 minuten kosten. Ik gebruik zelf ook af en toe AI agents, en alleen al beschrijven wat je nodig hebt kost vaak de helft van de tijd van wat het zou kosten om dezelfde hoeveelheid code zelf in te tiepen. Als jij zegt dat het je '15 minuten' heeft gekost dan heb je niet veel meer gedaan dan zeggen 'hier is een input Amex PDF en hier is een output XML plus een link naar de specificatie, maak hier een converter voor' en daarna de geaccepteerde oplossing direct geaccepteerd, want (in ieder geval bij mij) denkt zoiets als Claude Code vaak al 10 minuten na voordat hij zijn hele plan heeft opgesteld en uitgevoerd en naar alle missende details heeft gevraagd. Dan kan je echt nooit de code zelf nog gereviewed hebben om te kijken wat het nu precies doet, en dan is het dus gewoon black box code.

Dat een junior dev ook domme fouten kan maken klopt, en als je dan de code niet zelf controleert of door iemand die meer ervaring heeft, dan loop je ook het risico dat je een half-werkend script krijgt. Dat is geen argument tegen mijn bewering dat je voor dit soort dingen liever wil dat een competent persoon er naar kijkt.

Het zijn juist het soort reacties als die van jou 'je loopt echt gigantisch achter want ik kan de AI in 15 minuten een script laten uitpoepen' waardoor ik alleen maar sceptischer wordt over AI. De focus ligt er telkens vooral op dat iemand snel en zonder kennis 'meer code' kan produceren, maar of dat ook een goed idee is, is maar de vraag.
Even los van hoelang Claude er zelf mee bezig was (ongeveer 10 minuutjes of zo. plus 3 iteraties om het perfect te maken met kleine aanwijzingen van mij). Heb ik zelf effectief maar 15 minuten eraan besteed.

In de tussen tijd heb ik klantvragen beantwoord, betalingen gedaan, andere agents aangestuurd, beetje youtube gekeken, etc.

Mijn oorspronkelijke query was "Convert the excel to a valid fully compliment CAMT.053 (xml) .
Create a reusable windows app in python"

en het antwoord was de applicatie die ik gevraagd had.
Daarna heb ik het gedownload als zip bestand uitgepakt. En meeste tijd die ik besteed had was in Antigravity om mijn omgeving klaar te zetten met VU om de python te compileren naar EXE.
Ook daar heb ik zelf vrij weinig gedaan.

Daarna naar me boekhouder gestuurd. Die had nog paar puntjes over IBAN en begin saldo die niet in de Excel zat. Dus heb ik Claude gevraagd deze als invoer velden toe te voegen. en paar minuten later was het klaar. Ik blij, boekhouder blij. en zeker 400 euro per maand bespaard aan kosten.

---

I've created a complete solution for you:

Summary

Converted Output:
  • activiteit_camt053.xml - Your American Express transactions converted to ISO 20022 CAMT.053 format (1,339 transactions covering Jan 1 - Dec 29, 2025)
Reusable Python Application:
  • xlsx_to_camt053.py - Full-featured converter with both GUI and CLI modes
  • requirements.txt - Dependencies (pandas, openpyxl)
  • README.md - Documentation
Key Features of the Converter

The application supports two modes:

GUI Mode (Windows): Run python xlsx_to_camt053.py - opens a graphical interface with file browser, progress bar, and conversion log.

CLI Mode: Run python xlsx_to_camt053.py input.xlsx [output.xml] for batch/scripted conversions.

CAMT.053 Compliance

The generated XML is fully ISO 20022 CAMT.053.001.02 compliant, including:
  • Proper namespace declaration (urn:iso:std:iso:20022:tech:xsd:camt.053.001.02)
  • Group Header with unique message ID and timestamp
  • Statement with account details, period, and balances
  • Transaction summary (totals for credits/debits)
  • Individual entries with booking dates, amounts, references, merchant info, and addresses
Ah, een requirements.txt (lees: legacy format, onvoldoende voor proper dependency management) en pandas binnengetrokken. Waarom heb je precies dataframes nodig in een data-naar-xml converter?
Je hebt geen ongelijk, een kundig iemand kan dit zonder AI, maar nu kan een idioot zoals ik zelf ook, soms. En daar ligt juist met AI het pijnpunt, het werkt matig op zn best. Zelf zie ik dat vaak zat met eigen voorbeelden. Vervelend genoeg vaak genoeg gebruiken mensen AI in de brede zin, vinden groep en verkopen dat als de waarheid. Of het nou GMs zijn die AI als de heilige graal zien, of wappies die groep vinden die past binnen hun eigen waanzin beeld.

Dat mensen vervolgens in de brede zin er moet van worden geloof ik graag. Tegelijkertijd voor mezelf zou ik best wel een OpenAI achtig iets thuis willen draaien ter ondersteuning voor mijn eigen werk. Ik ben niet zo happig op alles in de cloud noch modellen waarvan ik niet weet wie er gaat bij heeft.
Dat is een mooie toepassing van AI voor het schrijven van iets. Maar de grote vraag is, omdat het werkt, wil dat niet zeggen dat het allemaal correct is. Kun je ook zelf beoordelen wat voor code er precies geschreven is, wat het doet en hoe het werkt? Daar zit namelijk aanzienlijk meer dan 15min in.

Maakt het programma fouten bij het converteren of introduceert die een bug (Noem maar ff, veranderd een komma in een punt of zo) dan kan het best dat het gewoon zijn taak uitvoert maar je structureel dingen invoert die niet kloppen. Output komt er uit, maar is dat gelijk aan input? Misschien rond die op de centen bedragen af, geen probleem op het eerste gezicht maar over jaren een behoorlijk verschil. Noem maar iets hoor geen verstand van de boekhouding.

Zeker met wat kleine dingetjes die niet zo opvallen kan dat heel lang onder de radar blijven. Ik ben helemaal voor AI gebruiken om dit soort dingen te doen echter vereist het nog steeds kennis en controle. In de praktijk zie ik zelf vaak dat die stap overgeslagen wordt en dat medewerkers je vooral erg zeurderig en overdreven vinden als je dit soort dingen benoemd.
Misschien stukje van het Ikea effect. "Ik heb dit 'gemaakt' en daarom is kritiek op dit ding kritiek op mij" haha.
Dit is een belangrijk punt. Ik heb zeker baat bij AI in mijn werk, maar ik bén al senior software developer. Het maakt sommige dingen makkelijker maar het laat ook echt wel fouten staan. Ik moet het reviewen alsof ik een junior review. Het bespaart me in de meeste gevallen wel tijd. Maar gewoon copy/paste is het echt niet. Niet als correctheid essentieel is.
Ik ben al 20 jaar senior developer en kan je vertellen dat er met de code niks fout is.
Daarnaast kan je makkelijk valideren met XSD validatie of de output goed is.

Wat jij nu doet zit is te vissen. Maar ik kan je garanderen dat een echte developer een stuk meer bugs maakt dan de AI nu doet.

Ik ben het met je eens dat het belangrijk (voor nu) om de code te valideren en gestructureerd te werken. Maar ook dit veranderd heel snel. Wat vorig jaar AI vooral handig was om comments toe te voegen aan code of kleine refactor werkjes heb ik nu meerdere agents die 24 uur per dag code aan het genereren zijn.
En deze code is een stuk beter dan wat ik zelf ooit gemaakt zou hebben, plus dat ik dan maanden bezig zou zijn voor iets wat ik nu in een dag klaar heb.

Nog 1 of 2 versies verder en je zal zien dat eigenlijk al het werk achter de computer beter door de AI gedaan kan worden dan een mens. En reken maar dat bedrijven (zoals de mijne) daar gretig gebruik van maken.

Dit zal je de komende maanden zeker al meer van gaan merken.
Ik ben al 20 jaar senior developer en kan je vertellen dat er met de code niks fout is.
Daarnaast kan je makkelijk valideren met XSD validatie of de output goed is.

Wat jij nu doet zit is te vissen. Maar ik kan je garanderen dat een echte developer een stuk meer bugs maakt dan de AI nu doet.
Als je al 20 jaar senior developer bent dan hoor je zeker niet bij de doelgroep waar ik mij zorgen om maak. Dat zijn eerder de gebruikers die 0 verstand van code hebben, het niet kunnen lezen of beoordelen maar wel een AI script in een bestandje kunnen plakken. Jij als developer had dit scriptje ook zelf kunnen schrijven zonder AI namelijk.

Ik stelde de vragen omdat ik dit wekelijks tegen kom. Specifiek niet in een development rol of team, maar gewoon in een organisatie waar enkele handige medewerkers denken "heey dit is makkelijk. "

Medewerkers kunnen nu opeens aan iets maken waar ze voorheen niet eens aan konden beginnen. Geen letter code kunnen lezen, helemaal niks snappen van wat er gebeurt maar met het kopiëren en plakken van code, error meldingen en het volgen van instructies van ChatGPT toch iets produceren wat lijkt te doen wat ze ervan verlangen. Of het ook echt zo werkt, tja.

Daar zit echt een steeds groter wordend probleem voor veiligheid, beheer en compliance. Dat de tools steeds beter worden helpt daar helaas niet direct bij. Zelfs als het allemaal top gemaakt is deal je met die vraagstukken.
Ja en nee.

Het punt is namelijk dat de technologie zo snel ontwikkeld dat over een paar maanden die werknemers die je nu als risico ziet de grootste productieve mensen zullen zijn.

Je kan niet kijken naar de huidige staat van zaken en verwachten dat over een paar maanden het nog steeds zo zou zijn. Je zit met een Infra bril te kijken, maar ook dit wordt minder relevant.

Betekend dat je die medewerkers helemaal los moet laten en maar hopen dat het goed gaat? Natuurlijk niet.
Maar weet wel dat over een half jaar diezelfde medewerkers je core van het bedrijf zullen zijn. Zaken zoals veiligheid, compliance, etc gaan naar een veel lager niveau to. Namelijk van app layer, naar puur data layer.

Je hebt AI's die compliance en security checken en waarschijnlijk zal een medewerker AI sessie zelf intern communiceren met de Corporate AI om te zorgen dat aan alle regels wordt voldoen.

Veel gaat er veranderen :)
Het punt is namelijk dat de technologie zo snel ontwikkeld dat over een paar maanden die werknemers die je nu als risico ziet de grootste productieve mensen zullen zijn.
Wat ik mij dan altijd afvraag: als je die AI bedrijven hebt en zij bezitten alle GPU's en datamodellen. Waarom gebruiken zij die dan niet "even" om alle programmeurs wereldwijd buiten spel te zetten? Zij kunnen nu immers super makkelijk alle code genereren. Zij kunnen alle software nu zelf maken want AI. Zeker Microsoft die een software bedrijf is in hart en nieren. Waarom doen ze dat niet? Waarom verkopen ze liever de spreekwoordelijke AI-schep in plaats van zelf naar goud te graven?
Omdat naar goud graven in dit geval met een wereld aan andere issues komt, denk bijvoorbeeld aan het supporten van 100 verschillende software pakketjes.

Ga er maar vanuit dat de grote jongens dit intern allang zo gebruiken. Google had jaren geleden al een soort interne copilot draaien. Alleen openai maakte hem publiek.

De handel zit voor hun in de tokens, hoe makkelijk wil je het hebben. Je draait wat datacenters en mensen betalen je zolang je de stroom erop houdt, fouten worden geaccepteerd en opgelost door de gebruikers zelf. Perfect scenario voor een cashgrab. Issue wordt als straks blijkt dat er niet meer verbeterd kan worden en we vast komen te zitten zoals ook met cpu's is gebeurt. Dan gaan ze de breedte in ipv de hoogte, zie je nu al, nieuwe modellen accepteren wat meer context maar zijn in de basis hetzelfde als de vorige met wat tweaks.

Als dat niet gefixt wordt klapt de bubbel. Maar is het voor handige mensen nog steeds top om strak gekaderde taken uit te besteden aan een gpu ipv zelf te tikken.
De handel zit voor hun in de tokens, hoe makkelijk wil je het hebben. Je draait wat datacenters en mensen betalen je zolang je de stroom erop houdt, fouten worden geaccepteerd en opgelost door de gebruikers zelf.
En vergeet niet dat alle kosten en nadelen voor de infra lekker zo op het conto van de burger wordt geschoven. Aub niet stoken / koken / laden tussen 16u en 21u!
Ik denk dat je daar zeker wel een case in hebt. Wat weerhoud de grote AI spelers niet grote dele van de markt naar zichzelf te trekken?

Dit gaat zeker nu de AI nog beter word en de data centers online gaan komen om de vraag aan te kunnen meer en meer spelen.

Gelukkig zie je dat opensource ook goed mee doet. Ik heb laatst nog de nieuwst Megatron LLM van NVidia in LMStudio geïnstalleerd en die is nu al meer dan genoeg om voor mij automatisch SEO en product optimalisaties te kunnen uitvoeren voor mijn producten.

Kan al niet wachten op wat gaat komen de komende periode :-)
Wel weer typerend dat de “believers” zo assertief reageren als je zoals de meeste mensen weinig waarde ziet in LLMs. Alsof ze bang zijn dat hun geloof ineen valt. Hetzelfde met liedje met Bitcoin. Als je niet zo enthousiast bent ben je een sukkel die achterloopt, er niets van snapt of het verkeerd gebruikt. De realiteit is dat het best wel handig kan zijn, maar de beloofde 10x productiviteit is in de meeste use cases een leugen gebleken. Net als dat Bitcoin centrale banken zou doen verdwijnen.

En nee we krijgen ook niet volgend jaar zelfrijdende autos en we gaan niet binnen 5 jaar naar Mars. Op naar de volgende hype die mensen hoop geeft.
En toch rijden de auto's al autonoom in Amerika en zelfs Mercedes met NVidia heeft al laten zien dat het voor hun werkt.

De reden dat ik reageer is omdat ik zelf uit eigen ervaring zie wat je met AI kan doen en hoe veel van de ontkenners of "non-believers" zich steeds weer tegen diezelfde steen aanstoten.

Van bitcoin weet ik het niet. Ik ben daar zelf niet in, dus kan ook niet praten uit ervarving.
het grote probleem is natuurlijk dat ze niet autonoom rijden, ze rijden redelijk "goed" doordat ze steeds bijgestuurd worden door mensen. Er is geen enkele auto die autonoom rijdt. Sterker nog, er is nog geen enkele auto die autonoom zou kunnen rijden.
Heb je wel gevolgd wat Tesla aan het doen is?
Die taxis in Austin rijden volledig autonoom. Er zit een bijrijder, maar die kan niks doen behalve de deur open doen om te remmen.

Daarnaast zijn er mensen die melden dat ze honderden dan niet duizenden kilometers rijden met hun tesla zonder ook maar het stuur of pedalen aan te raken.
Dit dus. Ik ben echt een leek op gebied van programmeer talen maar heb toch, met behulp van AI, een hoop mooie automatiseringstools gemaakt, die specifiek zijn voor mijn situatie.

Dat is denk ik ook de toekomst met AI, veel makkelijk en sneller tailor made dingen creëren en uitvoeren.
Ik gebruik ook de laatste versie van Claude met Opus 4.5, en ik kan alleen maar beamen wat je schrijft. Ons target is lowlevel c99. Code generatie is snel en precies, claude heeft goede perceptie van de code, is zelf in staat om over code te redeneren en kan problemen in de uitvoer vaak zelf terugberedeneren naar specifieke onderdelen van het programma. Code is goed leesbaar, en ook comments zijn logisch. Ook foutzoeken met debuggers en valgrind gaat met claude gewoon veel sneller, je hoeft niet meer op te zoeken welke specifieke switches je ook al weer nodig had, ik weet wat ik wil, en claude zorgt ervoor dat de tool doet wat ik ervan wil. En heel vaak is de voorgestelde fixes gewoon spot on.

Claude code is voor zover ik kan zien niet te vergelijken met ChatGPT, google Gemini etc. Ik begrijp een bepaalde scepsis richting LLM's en er zit uiteraard een risico aan je codebase openstellen voor dit soort modellen. En ja, het vergt een bepaalde discipline om dit soort tools te gebruiken en er resultaten mee te boeken. Maar voor mij en mijn collega's vanaf een zeker niveau is het absoluut een force multiplier. Ik doe met Claude in een dag wat ik hiervoor in een week deed.
Het enige waarom ik Claude nog niet zo veel gebruik is
  • het is super duur. - Ik mag blij zijn als ik er 3000 regels code uit kan krijgen. Vandaar dat ik het voornamelijk gebruikt voor scripts en tooling en voor analyze
  • Claude is soms zo lui als .... Vooral als de codebase wat groter is dan heeft die bij mij de neiging om of binnen een refactor job juist de kleine dingen te pakken. Of om overal fallbacks en mitigatie. Dan zegt die. Eigenlijk zou ik x en z moeten doen, maar ja ik heb niet genoeg tijd ervoor. Ik zet wel even een stubje met een todo. (zucht)
De filters voor noise reduction in photo's die ai gedreven zijn, zijn bij raw bewerkingen wel erg goed moet ik zeggen. Voor de rest prima punt. Overigens is het samenvatten wel handig alleen wanneer je het zelf doet steek je er meestal meer van op/
Ik denk dat het grote verschil zit in generieke en hele specifieke toepassingen van AI. Een generiek LLM levert in de regel bij mij gewoon belabberde antwoorden. De grove richting klopt, maar de details rammelen. En daar gaat et bij mij toch vak om. Maar als ik kijk naar specifieke tools voor fotobewerking, en dan met name object-selectie, dan is dat wel weer enorm indrukwekkend en beter dan ik zou kunnen in afzienbare tijd.
AI is steengoed in zoeken. Google als zoekmachine is de laatste 10 jaar enorm afgegleden voor het daadwerkelijk zoeken naar informatie. Alles is daar gedreven door advertenties, en je moet echt goede skills hebben wil je effectief vinden wat je nodig hebt.

Voor het zoeken naar research papers die binnen de kaders van jouw vraag liggen is AI puur goud. Snel door teksten kunnen lezen en kunnen uitvinden wat hoort -ook als je de exacte term even niet weet- bij je vraagstuk zorgt ervoor dat je binnen 1 minuut tientallen daadwerkelijk relevante papers kan vinden, daar waar je daar met google UREN aan kwijt was om de juiste zoektermen bij elkaar te sprokkelen en dan de papers die je krijgt op basis van veelal vage titels zelf te moeten skim-readen.
AI is ook steengoed in het voorstellen van antwoord als "OK", maar zodra je een "JA MAAR" vraag stelt met een geheel ander antwoord komt. Grote probleem zit hem dus in het kunnen herkennen van het juiste antwoord, daarmee vervalt voor mij de I van AI ;)
Het heeft wel wat nuttige toepassingen... Maar het weegt niet op tegen de vele miljarden die er in gestoken worden en de ontzettend ontwrichtende effecten die het op de wereld heeft...
Elektriciteit heeft ook veel gekost, net als overige automatisering in het verleden. Kijk naar de uitvinding van de auto. Het ontwrichte ook behoorlijk. Maar zonder waren we niet op het punt gekomen waar we nu zitten. Computers hebben de boel ook flink ontwricht in de wereld, maar we kunnen echt niet meer zonder. En die computers hebben ook miljarden gekost voor ze op het punt waren waar we nu zijn.
- Zo'n 25 jaar geleden konden we al IN bestanden zoeken.
In tekst wel ja. Al was dat ook niet meer dan een keyword search. Nu kan je ook in bijv. Foto’s zoeken, naar specifieke personen of scenes (strandfoto’s ofzo) bijv.

Bij het zoeken in tekst bestanden kan je ook context meegeven om naar te zoeken, bijv. in welke jaarraportage de grootste relatieve piek in uitstootreductie was. Van dat werk dat naar analisten en stagairs ging, die krijgen zo weer tijd voor uitdagender werk.

Als je eenmaal begint om zo te werken met AI is het verrekte lastig om weer terug naar het oude te gaan. Maar je beseft het je pas als je het mist.
Dat zoeken in alle bestanden (email, onedrive files, onenote etc) en daarmee een antwoord maken lijkt me wel handig maar bestaat dat ook echt? Ik vraag me af waar die npu's nu echt een verschil laten zien...
Een van de dingen die je juist met een LLM zou moeten kunnen doen is "begrijpen" wat iemand bedoelt, oftewel een vraag/commando omzetten in een commando wat een computer begrijpt. Dan kan je denken aan het bedienen van bepaalde smarthome-zaken. Daarbij heb ik weinig zin in een apparaat wat constant luistert naar een wakeword en daarna alles wat je zegt doorstuurt naar een server ergens. Liever helemaal lokaal, dan kunnen er ook geen gesprekken uitlekken.
Maar LLMs begrijpen niets. Het enige wat een LLM doet is op basis van voorgaande tekst het volgende woord voorspellen met behulp van een (heel complex) statistisch model.
Heb je toevallig ook een vermoeden waarom ik "begrijpen" tussen aanhalingstekens had gezet?
De halve wereld draait op statistische modellen. Als het al niet meer is. Die statistische modellen hebben ons qua productiviteit nog geen windeieren gelegd. Er is geen enkele reden om niet aan te nemen dat het met de huidige AI-craze anders gaat lopen. Het enige waar je eventueel nog over kan vallen is dat de investering niet opweegt tegen de baten die we er van terugkrijgen.

Of LLMs nu wel of niet iets begrijpen (het begrip begrijpen is ook niet zo ondubbelzinnig gedefinieerd als je zou willen) doet er niet toe als het resultaat een net-benefit is.
Zo kan je iets wel kapotrelativeren. "Het enige wat een mens doet is spieren aansturen op basis van een (heel complex) elektronisch netwerk". En heel filosofisch, doet een menselijk brein eigenlijk echt veel anders dan 'zoeken naar het volgende woord dat past' als het redeneert?

Een LLM kan 'begrijpen' wat je bedoelt uit context, ook als je zelf de exacte term niet meer weet. Als jij een concept of ding zoekt wat op het puntje van je tong ligt en het dan maar omschrijft, kan een LLM belachelijk snel en accuraat op de proppen komen met exact wat je bedoelt. Een LLM is in die zin dus in staat om te interpreteren ('begrijpen') waar de gebruiker het over heeft zonder de daadwerkelijke term, en kan vervolgens met vrij hoge accuratesse het juiste antwoord geven. Of in het geval van een smarthome toepassingen, de juiste beslissingen maken.

[Reactie gewijzigd door Boxman op 7 januari 2026 13:47]

En wat doen mensen dan? Die worden getraind op ervaringen met alle zintuigen en vervolgens maak je op basis daarvan relaties met gewichten wat ook statistische kansen geeft?
Het gaat er niet om of de LLM de informatie begrijpt die ik er naar toe stuur. Het gaat erom dat ik er informatie naar toe stuur, naar een extern bedrijf.
Een weldenkend mens zou geen enkele ai toegang moeten geven tot welk aspect van zijn leven dan ook, tenzij het lokaal draait, dan is alles juist leuk en handig zonder de opoffering van je privacy/kwetsbaarheid
Gewoon goed de privacy-policies lezen van de betaalde diensten. Daarin staat precies vermeld wat ze wel of niet met je data doen en op basis daarvan maak je een keuze voor een bepaalde dienst. Als je bang bent dat de AI-bedrijven zich daar niet aan houden - dan kun je ook denken dat je provider je mail meeleest of je mobiele aanbieder al je gesprekken afluistert. Of de postbode al je verzonden brieven even meeleest en dan vóóral de aangetekende.

Dit klinkt misschien flauw maar zo bedoel ik het niet. Als dingen echt staatsgeheim zijn dan heb je wellicht een punt. Maar als je standaard geen enkel bedrijf meer wilt vertrouwen waar je klant bent, dan kun je eigenlijk net zo goed ophouden want dan liggen overal apen en beren onder het gras te wachten als een soort adder die uit de mouw komt.
Het probleem is dat die ai troep langs alle kanten binnenkomt. En natuurlijk is het soms nuttig en niet allemaal "troep", maar het is hip en op die manier probeert iedereen zich een weg binnen te banen. Als admin moet je je constant verantwoorden "want je houdt alles tegen".

Privacy policies lezen is niet zo eenvoudig als even een a4-tje bekijken. Het kost veel tijd, je moet weten wie subcontracters zijn, je moet weten of er aparte analyse gebeurt op je data.

In de bedrijfswereld legt dat toch een druk vind ik. Meeting notes in Teams? Bv. read.ai, iedereen die in de vergadering aanwezig was krijgt een link met de meeting notes waardoor de tool zich automatisch probeert te registreren. Apps van net opgerichte bedrijven die hele mailboxen proberen leeg te zuigen onder het mom van AI analyse en het leven gemakkelijker te maken.

Ik vind het sowieso een gekke evolutie, vroeger hadden we een intern netwerk dat we enorm beschermden, een DMZ en een "gevaarlijke" WAN. Nu maakt het voor de eindgebruikers niet meer uit, data, mailboxen, sharepoint, deel maar met wie je wil en klik maar op Yes. Er zijn nog lastige admins die dat tegenhouden, maar dan zetten we het wel op een of andere gratis cloud om dat te omzeilen.
Haha, ja, klopt, daar heb je helemaal gelijk in hoor.

Ik ben ook altijd systeembeheerder geweest en heb dit ook allemaal meegemaakt. Onze eerste internet-server (voor ASP-websites) was nog een Pentium 350. Daar kun je je nu helemaal niks bij voorstellen, maar die draaide toen zonder morren een paar websites, haha.

Maar je hebt helemaal gelijk. Alles is heel erg veranderd. Ik ben daarom ook trouw donateur van Bits of Freedom (en ook Wikipedia) omdat ik graag iemand betaal die het privacy- en rechten-stuk goed voor mij in de gaten houdt, om het zo even uit te drukken. Omdat je het simpelweg niet allemaal zelf kan doen zonder er een dagtaak aan te hebben.

Daarnaast moet ik wel eerlijk zeggen, dat de meeste problemen de afgelopen jaren veroorzaakt zijn door datalekken en hacks waardoor zaken op straat kwamen te liggen en niet zozeer doordat bedrijven expres hun eigen voorwaarden overtraden en boosaardige dingen gingen doen met je documenten of mails. Ik bedoel, ik ken nog geen zaak dat OpenAI, Microsoft of Google een geheim bedrijfsdocument stiekem door heeft verkocht aan je concurrent.

Al met al kunnen we gewoon concluderen dat het lastig is en blijft. Ook een computer thuis is gevoelig voor ransomware, phising of wat dan ook. En ook dan kunnen je gegevens op straat komen te liggen. Of je computer wordt simpelweg gestolen en je had geen Bitlocker.

Ik denk dat cloud-diensten niet meer te omzeilen zijn, praktisch gezien, maar dat je er wel vanuit mag gaan, dat als je een betaald abonnement hebt, dat je gegevens dan ook inderdaad gebruikt worden zoals vermeld wordt. En ook bij een gratis abo mag je ervan uitgaan trouwens, de voorwaarden moeten natuurlijk altijd juist zijn en overeenkomen met de werkelijkheid. Ik bedoel meer: bij een betaalde dienst is het verdienmodel duidelijk en hoef jij niet het product te zijn.
Gewoon goed de privacy-policies lezen van de betaalde diensten. Daarin staat precies vermeld wat ze wel of niet met je data doen en op basis daarvan maak je een keuze voor een bepaalde dienst.
Ja tuurlijk. Dat zijn zulke juridisch geschreven voorwaarden dat het voor de meeste mensen niet te begrijpen is wat er staat.
Dat valt toch wel mee?

Ik vind bijvoorbeeld het stuk van ChatGPT prima te lezen en begrijpen. En zo valt het bij de meeste bedrijven best wel mee hoe ingewikkeld het opgeschreven staat. Vroeger was het inderdaad veel meer kleine-lettertjes-werk, maar tegenwoordig zijn heel veel bedrijven duidelijk en transparant.
When you use our services for individuals such as ChatGPT, Codex, and Sora, we may use your content to train our models.
You can opt out of training through our privacy portal by clicking on “do not train on my content.” To turn off training for your ChatGPT conversations and Codex tasks, follow the instructions in our Data Controls FAQ. Once you opt out, new conversations will not be used to train our models.

Even if you have opted out of training, you can still choose to provide feedback to us about your interactions with our products (for instance, by selecting thumbs up or thumbs down on a model response). If you choose to provide feedback, the entire conversation associated with that feedback may be used to train our models.

When you use ChatGPT, you can also use Temporary Chat by clicking the icon from the top right of the Chat screen. Chats from Temporary Chat won't appear in history, use or create memories, or be used to train our models.
Bron:

https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance

Services for businesses, such as ChatGPT Business, ChatGPT Enterprise, and our API Platform
By default, we do not train on any inputs or outputs from our products for business users, including ChatGPT Business, ChatGPT Enterprise, and the API. We offer API customers a way to opt-in to share data with us, such as by providing feedback in the Playground, which we then use to improve our models. Unless they explicitly opt-in, organizations are opted out of data-sharing by default.
Ja dat is 1 pagina. Maar de hele policy staat hier: https://help.openai.com/en/collections/6864268-privacy-and-policies

En niet alles zal van toepassing zijn, maar het is meer dan dat ene stukje wat jij deelt.
Niet om flauw te willen zijn hoor, maar ook de pagina die jij deelt is overzichtelijk en helder. Je kunt zo een kopje vinden over wat OpenAI met je data doet of een ander onderwerp waar je meer over wilt weten.

Ja, tuurlijk, als je alle details wilt weten is er heel veel te bekijken. Maar het is allemaal zo opgeschreven dat je het ook echt kunt vinden en het is leesbaar opgeschreven, vaak in vorm vraag-antwoord. Dat was vroeger echt wel heel erg anders, toen de kleine lettertjes echt megaklein waren enzo. Dat bedoelde ik meer te zeggen.
Nou mijn waarschuwing is een verlengde van de al eerder geldende oplettendheid wat betreft ISP (zie redenen VPN te gebruiken) en de potentiele komende derde (cyber) wereldoorlog. De reden om Signal te gebruiken ipv whatsapp, waarom je je kinderen niet op social media moet posten, waarom je je echte naam niet overal moet gebruiken. Hoe advertentiebedrijven je overal volgen om je te profileren, vaak met meer inzicht in je psyche dan je wellicht zelf hebt over jezelf. AI is al dat on steroids in potentie.
...want dan liggen overal apen en beren onder het gras te wachten als een soort adder die uit de mouw komt.
Helemaal akkoord. Zo kan je overal olifanten op de weg zien. Je moet ook niet van een wesp een tijger maken.
Privacy. Ik draai local AI omdat ik met hoogst vertrouwelijke en geheime informatie werk. Uit het openbaar stellen van de vragen en interacties met de LLM zou men kunnen afleiden waar ik mee bezig ben. Ik besef dat ik een uitzondering ben. Maar ik denk dat het voor veel bedrijven / personen geldt dat je niet zomaar je IP en kennis op straat wilt gooien. Helaas hebben mensen dit vaak niet door. Ik kon bijvoorbeeld nog maar net voorkomen dat iemand een vertrouwelijk document door AI wilde laten vertalen.

Ik draai nu LLama3 op een Mac Mini M4, gaat geweldig.
Klopt, hier is het secretariaat al verboden om AI te gebruiken om even snel een verslag te maken van vergaderingen. Daar worden bedrijfsstrategische dingen besproken die je niet het internet wil opgooien op wat voor manier dan ook.
De meeste LLM's hebben ook wel commerciële licenties dekken wel af dat de informatie die je uploadt niet wordt verwerkt, anders dan een direct antwoord genegeren.

Voor extreem vertrouwelijke informatie is dat misschien nog niet goed genoeg, maar voor standaard bedrijfsactiviteiten doorgaans wel.
Klopt, mensen realiseren zicht he niet eens.
In het laatste geval is het probleem dat bedrijven hun zaken niet voor elkaar hebben. Hoe kan het dat die persoon niet weet dat het een vertrouwelijk document is? Is die nooit getagd?

Heel veel bedrijven hebben gewoon hun beveiliging niet voor elkaar. Document taggen op intern, extern, zeer vertrouwelijk, etc. is niet iets wat nieuw is. Als je dit al in het verleden had gedaan, had een DLP systeem nu vrij eenvoudig kunnen tegenhouden dat vertrouwelijke data bij AI systemen kunnen worden geupload.

Ik snap echt niet dat bedrijven daar nu nog steeds niet mee bezig zijn, omdat het de eerste laag beveiliging is tegen dit soort datalekken. Introduceer een DLP en zeg tegen de DLP dat alle documenten die niet gelabeld zijn behandeld moeten worden als vertrouwelijk, intern only.
Het gaat gewoon met copy paste. Men is vindingrijk. Zeker wanneer het veel werk scheelt.
Betere privacy omdat je je prompts niet meer naar een cloud hoeft te sturen. Ook handig als je LLM wil gebruiken in combinatie met lokale files. Bijvoorbeeld als auto-complete voor developers.
We gebruiken local LLM's bij ons voor productie ondersteuning en analyses die wil je niet op het internet hebben ;). Verder developers gebruiken ook wel lokale LLM's voor het ondersteunen bij het programmeren en met code zit je met copyright e.d. dit kan je verliezen bij bepaalde AI tools.
Bij welke AI tools heb je geen copyright, bij het maken van software?
We maken niet alleen software maar ook code voor ECU's die onze motoren aansturen en dat is mega geheim. Dus die code mag niet in cloud applicaties gestopt worden. In principe heb je bij alle Cloudapplicaties en Tools geen controle meer over je code (informatie) en met name bij AI heb je totaal geen inzicht waar het blijft en wat er mee gebeurd. Er zijn wel afspraken die er gemaakt kunnen worden en er zijn Guardrails en opties die je aan kan zetten maar die bieden geen volledige garanties.
Beeldherkenning voor de meer dan 100.000 foto's die op mijn NAS staan. Je kunt er heel veel tijd mee besparen omdat je dale data niet meer gestructureerd hoeft te archiveren.
GitHub Copilot, voor het helpen bij schrijven van code, draait lokaal.
inline code suggesties misschien, maar de llm's die je kan selecteren draaien toch echt in de cloud, porbeer maar eens zonder internet verbinding
Grappig, wist niet dat dat kon. Wat voor hardware heb je nodig voor een beetje redelijke resultaten?
Ik draai het op een dedicted Mac mini M4 (€700). Met Olama is dat niet eens heel moeilijk.

Voordeel van de M-series Mac's is dat het geheugen wordt gedeeld tussen intern en grafisch geheugen, waardoor je grotere modellen kan draaien met redelijke performance.

Dat is zeker handig met Mac Studio's met 32 tot 128 Gb (unified) gedeeld geheugen. Een nVidia 5090 kaart heeft bijvoorbeeld 32 Gb (nu €2500, straks €5000 excl. PC), maar Mini M4 Pro (€2500) heeft 64 Gb en draait dus grotere modellen en/of nauwkeurigere.

Met een Mac Studio met 128 Gb (€4200) zit je al in de richting van een Nvidia 6000 met 96 Gb (€8000 excl. PC). De nVidia's zijn in de regel wel sneller, wanneer ze een model kunnen draaien.

[Reactie gewijzigd door HummerHealey op 7 januari 2026 15:02]

Tijdens de presentatie van Intel kwam de CEO van Perplexity als gastspreker. Hij gaf aan dat zij wel meer inzetten op local AI. Misschien voor bedrijven belangrijk dat data niet naar een cloud wordt verstuurd? Wellicht ook beter voor het milieu omdat er minder datacenters nodig zijn?
Wat zijn nou eigenlijk use cases voor local AI. De meeste AI die ik aanraak zit in de cloud…?
Ik kan genoeg bedenken, maar veel diensten zijn al naar de cloud verhuisd. Zeker consumenten die hun foto's, mails, documenten daar vaak ook al hebben, wat gaan die lokaal doen met AI?
Ik draai AI modellen voor het genereren van plaatjes en video’s lokaal. Ik ben motion graphic designer en ben mijn focus wat aan het verleggen, maar daar heb je wel een flinke PC voor nodig. Op het gebied van video is online genereren niet professioneel te gebruiken door de lage resolutie, korte fragmenten en censuur. Lokaal heb je veel meer opties maar dat slaat meteen door naar de andere kant. De instelbaarheid is extreem en het nerdgehalte is erg hoog. Zoek maar eens wat plaatjes op van een ComfyUI workflow. Het blijft ook vechten met VRAM. Wil je echt een beetje vrij zijn dan is een RTX 5090 met 32GB geen luxe. Gelukkig wordt het maandelijks beter met lichtere modellen die mooiere beelden maken en de open source community die slimme trucs blijft vinden om efficiënter te werken.

Toch zit ik met een enorme tweestrijd. Aan de ene kant vind ik AI onwijs tof met de mogelijkheden die het biedt om dingen te creëren. En dan niet eens alleen voor plaatjes of video, maar ook om snel dingen op te lossen in After Effects ofzo. Je kan AI vragen om even een volledig plugin script te schrijven. Aan de andere kant vind ik het ontzettend kut dat het er is. Het heeft het creatieve van het werk echt een beetje kapotgemaakt. Mijn vriendin is illustratrice en op dat gebied is het nu al totaal onzinnig om nog professioneel iets met de hand te creëren. Ook valt de "eer" een beetje weg, als ik echt wat moois gemaakt hebt denkt iedereen nu dat het met AI gegenereerd is. Ook valt er weinig "eer" op te strijken van werk waar je AI hebt gebruikt.

In mijn vak als motion graphic designer kan AI het werk voorlopig nog niet volledig overnemen, maar het komt er wel aan. Ik denk dat we over twee jaar online gewoon volledige 4K video’s kunnen genereren en dat de text encoder exact begrijpt wat ik wil. Nu werk ik voornamelijk voor evenementen met extreme resoluties of schermen met vreemde vormen, verhoudingen etc. Dus het blijft nog wel even specialistisch, maar het lijkt er op dat het vooral het technische werk is wat over blijft en niet het creatieve.

Zou mooi zijn als AI alleen het stomme werk zou overnemen.
Kleine toepassingen, gevoelige data. Dat zijn de grootste, je hebt liever een klein chipje in je auto erbij en dan lokaal geregeld als een heel datacenter moeten zetten om het centraal te regelen in sommige gevallen.

Verder is local ai/LLM vooral voor mensen die van hun privacy houden en bedrijven die liever niet willen dat openai het volgende model op hun data traint. Want ondanks dat er in de hele dure abbos een knopje zit niet leren met mijn data, staat er in de algemene voorwaarden dat het alsnog gewoon mag....
Privacy. Ik gebruik "AI" vooral lokaal. Niet zo krachtig als die in de cloud maar ook niet slecht. Ik heb er een speciale server voor ingericht. Juist omdat ik privacy belangrijk vind en een tegenstander ben van cloud.

Zo'n NPU zal dat alleen waarschijnlijk niet brengen, ik gebruik vrij heftige videokaarten voor mijn lokale servers.

[Reactie gewijzigd door Llopigat op 7 januari 2026 17:13]

Het is gewoon wol praat om te verhullen dat de NPU rekenkracht in het niet valt met een DGX Spark en verder. Het probleem is dat een gewone PC gewoon nagenoeg onbruikbaar is voor het zelf draaien van grote taalmodellen. Dus het is niet de consument die het probleem is. Het is probleem is dat huidige pc een shit product is wat ook maar niet in de verste verte in buurt komt van een AI systeem. Dat is het probleem. Overigens verkoop DELL deze apparaatjes wel. Maar ja hoe bouw / kat je het om tot weer een gewone pc. Tja...
Je draait lokale LLMs als je je privacy waardeert. En voeg je er een paar MCPs aan toe die je lokale LLM toegang geven tot tijd en de Brave Search API (als privacy van iets minder groot belang is), naast Sequential Thinking, dan vallen zelfs de kleinere modellen een stuk minder tegen.

Lokaal je LLMs draaien is nu verschrikkelijk duur geworden door de RAMpocalypse, maar kan het ook nu nog steeds waard zijn, wanneer kostbare clausules in je contracten zijn verwerkt.

Lokale LLMs heben het voordeel dat, wanneer ingeregeld, je je geen zorgen hoeft te maken over veranderingen die in cloud-LLMs schering en inslag zijn. Heb je net je hele proces ingeregeld, maakt OpenAI/Gemini/Claude een aanpassing in hun LLMen kan je met een beetje pech weer van voren af aan beginnen. Dit is tegelijkertijd ook een voordeel van de cloud-LLMs, wat lokale LLMs zijn niet altijd even makkelijk in te regelen en staan misschien niet stil, maar updates liggen (veel) verder uit elkaar dan met de cloud-LLMs.

Lokale LLMs vereisen op dit moment dure hardware, maar daarna zijn de kosten voor energie en/of onderhoud wel behoorlijk vast. Met cloud-LLMs (zeker via hun APIs) zijn de kosten per maand nogal variabel. En gaat het fout met een agent, waardoor deze tokens als een dolle verstookt, dan kan de rekening makkelijk oplopen tot 10.000 Euro voor die maand, als je niet oplet.

Nou zal dat bij een particulier niet snel gebeuren, maar niet elke gebruiker van cloud-LLMs kan of mag de bedrijfsrekening inzien. Of het dashboard daarvoor. Nu kunnen daar wel grenzen worden geconfigureerd, maar zonder controle mogelijkheden is dat alsnog koffiedik kijken. Lokale LLMs kunnen ook als een dolle tokens verstoken, maar dat gaat je alleen wat extra aan energiekosten opleveren. Als je niet oplet. Controle daarop is dan weer heel makkelijk bij lokale LLMs.

Komn w aan bij het meest heikele punt van lokale LLMs, de kwaliteit van antwoorden op jouw prompts. De cloud-LLMs hebben over het algemeen genomen minder sturing in prompts nodig om toch tot bruikbare antwoorden te komen. Of je dat via prompts of "skills" of "rules" doet is niet zo relevant. Lokale LLMs hebben vaak veel sturing nodig. Lokale LLMs zijn zowiezo zeer afhankelijk van de hardware waarop ze draaien (computationele kracht zullen we maar zeggen), maar met de hoeveelheid aan sturing...daar worden ze niet sneller van.

De hoeveelheid aan sturing vreet ook het beschikbare context geheugen op. En je merkt bij GPUs dat een grotere context snel heel veel extra VRAM nodig heeft. En dat een grotere context de lokale LLM nog eens verder vertraagt.

Kortom, heb je geen GPU met minstens 16 GB aan VRAM, dn zijn lokale LLMs niet echt geschikt voor jouw systeem. Ja, er zijn hele kleine LLMs die met gemak passen in een GPU met 4 GB aan VRAM, maar deze zijn niet sterk in het beantwoorden van je prompts. En met deze "kleintjes" ben je zowat verplicht om alleen in het Engels ermee te "praten". Nou is dat voor velen geen probleem, voor anderen wel.

Vandaar dat ik dus lokale LLMs afraad in een GPU met minder dan 16 GB aan VRAM. Heb je echter een GPU met 24 GB of 32 GB aan VRAM, dan draai er 4 of 5 kleinere LLMs in (rond de 8b ofzo), elk met wat context en gebruik deze dan voor lokale agentic AI. RAG gaat ook beter met de extra speelruimte in VRAM.

Heb je een moederbord waar 2 of meer van dat soort GPUs op passen, dan kan je via 'sharden' van 70b LLMs aan rappe antwoorden op je lokale prompt krijgen. De kwaliteit van het antwoord neemt bij dat soort modellen ook drastisch toe. En met wat MCPs eraan toegevoegd, heb je ineens een behoorlijk krachtige lokale LLM. Zo'n systeem heeft dan beter het dubbele aan VRAM in systeem RAM wat iefst ook zo snel mogelijk is en als kers op de taart ook nog ECC ondersteund. Zo'n systeem, daar du je dan ook maar beter een stevige CPU in. De extra PCI lanes en snelheid heb je dan wel nodig. Prijskaartje gaat al gauw naar 20.000 Euro en daarboven. En daar komen dan nog eens de energie en onderhoudskosten bovenop.

Want dit soort computers, daar draai je geen Windows meer op, maar Linux en/of vLLM om je lokale LLM te hosten. Als het bedrijf niet al te groot is, dan kan 1 zo'n computer behoorlijk wat prompts van werknemers gelijktijdig verwerken met een snelheid die dicht in de buurt komt van de gratis 'tiers' bij de cloud-LLMs.

Deze post is al veel te lang geworden. Hopelijk heb je er wat aan.
Het begin van het einde van de bubbel is al begonnen.
Vivaldi weigert AI in hun browser te verwerken.
De keuze van Vivaldi om geen AI in hun browser te verwerken heeft niets te maken met "einde van de bubbel". Er zijn voor alles voor- en tegenstanders en dit is vermoedelijk gewoon een positionering. Er zijn mensen genoeg die niet van AI moeten weten of het direct uitzetten als het door de strot wordt geduwd. Dus als je dan zegt dat je het specifiek niét doet, dan is dat een USP waarmee je nieuwe klanten kan lokken.

[Reactie gewijzigd door Kristof Vxx op 7 januari 2026 12:59]

Maar de mensen die het wel graag gebruiken, hebben gewoon een abonnement op chatGPT. Die kopen niet een "AI-PC" waar vervolgens niks bijzonders aan is.
Exact, die NPU is (vooralsnog) voor vrij specifieke doeleinden. De gemiddelde AI gebruikende consument doet dat met een online dienst en heeft dan niks aan zo'n NPU. Ik vind het daarom ook best apart dat ze die NPU al standaard in pc's stoppen, alsof ze er vanaf moeten. Andere kant snap ik het wel, des te meer een NPU standaard aanwezig, des te makkelijker het is daar software voor uit te rollen, maar heeft er iemand een idee van een toepassing ervan? En dan bedoel ik dus voor de gemiddelde consument (en dus niet iemand die op zoek is naar een machine met een NPU erin), wat heb je er hedentendaags aan?

Want dat is ook een groot probleem met marketing (in het algemeen, maar zeker wat AI betreft), een hoop buzzwords en beloftes dat het dingen sneller en beter maakt, maar echt iets concreets biedt het niet. "Gebruik AI! > Waarom? > Het is beter! > Hoe beter? > Gewoon ... beter"-vibes krijg ik er van.

Ik ven het dus totaal niet vreemd dat Dell de marketing hierop terugschroeft. Als meer bedrijven dat doen kon dit nog wel eens het begin van het einde van de bubbel zijn
AI gaat niet meer weg, wordt een blijvertje, teveel voordelen, als je daarmee weet om te gaan.
Niet hetzelfde als 3D of VR dat om de x jaar weer een opbloei krijgt en dan weer uitsterft.

[Reactie gewijzigd door mr_evil08 op 7 januari 2026 13:37]

Oh daar ben ik ook wel van overtuigd, maar of iedereen daar een NPU voor moet hebben? De consument zelf denkt in ieder geval van niet (of verward), zodoende Dell hun acties.

Die bubbel kan mij niet snel genoeg klappen, kan AI weer terugschalen naar een daadwerkelijk bruikbaar iets ipv dat het overal door je strot geramd wordt. Maar AI (zoals het nu aangeboden wordt) heeft zeker wel hetzelfde vaporware gehalte als 3d of vr, en veel ervan zal opdezelfde manier ook gewoon gaan verdwijnen.
Hier wordt de NPU gebruikt voor Nahimic® Audio van SteelSeries voor 3D-geluid (Lenovo laptop).
Ik hoor zelf geen verschil in audio, zal wel aan mij liggen dus heb dat allemaal uitgezet zodat de NPU weer idle is tijdens gamen want dat gaat wel ten koste van warmteproductie op de CPU fan.
maar heeft er iemand een idee van een toepassing ervan? En dan bedoel ik dus voor de gemiddelde consument (en dus niet iemand die op zoek is naar een machine met een NPU erin), wat heb je er hedentendaags aan?
Het wordt vaak gebruikt voor beeldverbetering en bijvoorbeeld tekstvoorspelling volgens mij. Een AI in je telefoon bijvoorbeeld of op een tablet handschriftherkenning. Dat zijn ook dingen die vaak realtime oplossingen nodig hebben en dan heb je minder aan ChatGPT. Ik zou het graag ook breder zien, bijvoorbeeld voor het halen van info uit email lokaal ofzo (wat ik niet in ChatGPT wil steken) maar dat is nou net waar de bedrijven achterblijven.

Ook dan is de ingebouwde GPU vaak sneller overigens, de NPU is er vooral om het energie-efficient te doen. Ander voordeel is dat de NPU in principe modellen in RAM kan laten (een iGPU ook natuurlijk). Dus ja, soms handig maar een beetje niche en te weinig gebruikt. Als het gebruikt wordt dan heb je er misschien geen erg in.
Ja precies, de meerwaarde is nog niet zo. Het is een beetje zoals de PhysX kaarten vroeger, best een gaaf iets, maar eigenlijk best een niche, te weinig mainstream dingen die er gebruik van maken om zo'n aparte module te rechtvaardigen, en het biedt niet echt iets wat niet al kan met bestaande hardware. Ja sure, sneller, efficienter, en als je een applicatie gebruikt die er zwaar op leunt, dan zul je vast het voordeel merken. Maar om het nou in elk mainstream apparaat te douwen? Van alle AI die bij de gemiddelde consument door strot geduwed wordt, zijn vooralsnog het meeste online diensten (daar valt qua abonnement en gebruik natuurlijk aan te verdienen), dus die bedrijven heb ook veel liever dat het online afgenomen wordt.

Dusja, hoe moet je hier dan op marketen? Wat bied een NPU (op dit moment) voor meerwaarde voor de gemiddelde consument? Het zal met name zijn zodat van die assistent agents niet zo'n powerhog zijn door constant te draaien, maar ook de meerwaarde van die agents zijn nog moeilijk te marketten
Het zal met name zijn zodat van die assistent agents niet zo'n powerhog zijn door constant te draaien, maar ook de meerwaarde van die agents zijn nog moeilijk te marketten
Een volledige agent zal niet (alleen) op de NPU draaien, meestal heb je dan een combi van NPU en CPU waarbij de NPU de detectie doet. Als je meer aan een LLM denkt dan zijn de meeste NPU's niet van het juiste niveau. 10 (embedded) tot 50 TOPS zijn dan niet voldoende.

De meeste dingen die die NPU wat efficienter kan doen zijn niet de dingen die de consument merkt. Misschien dat de meeste fabrikanten dachten dat ze gewoon "een AI PC" konden verkopen en de consument moet dan maar aan ChatGPT denken ofzo. Maar daar is de consument klaarblijkelijk niet voldoende ingetrapt.

Dat betekend niet dat de huidige AI geen problemen kan oplossen of dat de NPU een slecht concept is overigens, maar de gemiddelde consument heeft er nog niet al te veel aan - als ze al merken dat ie misschien af en toe gebruikt wordt.

[Reactie gewijzigd door uiltje op 7 januari 2026 16:25]

Maar dat is dus expliciet niet wat Dell doet....
Dell heeft in deze eigenlijk alleen aangegeven dat ze het niet meer in de marketing gaan gebruiken.
Vivaldi's keuze om geen AI in de browser te verwerken is inderdaad een keuze die ze zelf maken: https://vivaldi.com/blog/keep-exploring/
Persoonlijk heb ik ChatGPT als panel toegevoegd aan Vivaldi en dat is echt alles wat ik van AI gecombineerd wil hebben in een browser.

Helaas is het voor een groot deel veel hype, maar kan het zeker toegevoegde waarde hebben als er naar doelgerichte oplossingen gewerkt wordt zoals programmeer assistenten of photoshop tools. Het zal ons werk niet vervangen, slechts aanvullen. Daarbij sta ik ook volledig achter het standpunt van Vivaldi: er is weinig toegevoegde waarde aan een of andere LLM tijdens het browsen. Tevens precies de reden waarom ik deze browser gebruik: geen onzinnige poespas die in de weg zit, maar wel naar smaak in te stellen met alle features die ik zou willen.
Ik schrijf niet dat zij het einde van de bubbel markeren. Maar dat er meer bedrijven en organisaties zijn die blijkbaar niet of niet deze toekomst van AI zien.
Een browser rendert webpagina's van broncode. Daar zou geen AI voor nodig moeten zijn.
Een browser rendert webpagina's van broncode.
Zei iedereen in 1990. Tegenwoordig doet een browser natuurlijk veel meer he?
Kun je een lijstje geven van de dingen die een browser tegenwoordig doet?
Media afspelen zonder Flash, tekst correct weergeven, layout een stuk beter dan in 1990, stylingmogelijkheden die sterk verbeterd zijn, standaarden voor gebruik van data op de achtergrond, mogelijkheid om tabs te gebruiken, je hoeft geen icoontje meer op je pagina te duwen om aan te geven dat het alleen met IE werkt, online betalingen zonder dat je geld wordt gestolen (doorgaans), enz, enz.
Was Flash Player er al in 1990?

En oké, en als we 1990 dan toch niet letterlijk nemen, zoals bij Flash Player, waren tabbladen er al wel medio jaren 90, in elk geval in Opera dan.

[Reactie gewijzigd door TheVivaldi op 7 januari 2026 13:17]

Was het niet Phoenix dat in 2004 ondersteuning voor tabbladen introduceerde zonder hacks of bijzonderheden?

En Macromedia Shockwave kwam inderdaad pas halverwege de jaren negentig.
Opera had al jaren tabs. Enkel kon je ze desgewenst ook tilen b.v. Puur MDI (zonder tabs, enkel venstermenu) was nog uit de jaren '90.
Klopt, maar Opera werd niet grootschalig gebruikt en was een beetje een bijzondere browser en zoals je zelf zegt: MDI is niet echt tabs :)

(op een goede manier, maar niet veel gebruikt is niet veel gebruikt)

[Reactie gewijzigd door Stukfruit op 7 januari 2026 20:10]

Volgens mij doe je in een browser tegenwoordig bijna alles wat je als doorsnee mens uberhaupt op een PC doet...
Vroeger had je daar twintig software pakketten voor.

[Reactie gewijzigd door Polderviking op 7 januari 2026 12:57]

Dat heeft echter vrij weinig te maken met een verandering van de taken of rol van de browser als software.

In essentie doet de browser zelf nog steeds niet veel meer dan interpreteren van HTML code en dit weergeven.
Ja, maargoed, dat is een waarheid van hetzelfde niveau dat computers ook niet meer zijn gaan doen dan 1's en 0's verwerken en op die basis roepen dat er sinds de ENIAC niks is veranderd.

Wat er vroeger mogelijk was in een browservenster was echt wel van een ander niveau dan wat we nu allemaal vanzelfsprekend vinden.
Je haalt duidelijk 2 dingen door elkaar. Het browservenster doet niets bijzonders, alles wat jij ervaart als vooruitgang is niet de browser zelf, maar het aanbod dat beschikbaar is voor een browser.

Als er gezegd wordt dat je nu alles in een browser kan doen dat je kon doen met speciale dedicated programma's in het verleden, dan heb je het niet over de browser, maar over een website die je bezoekt met een browser.

Neem als voorbeeld Word. Dat is een programma dat je kunt downloaden, installeren en als dedicated programma lokaal kunt gebruiken. Maar er is ook een web-versie van ditzelfde programma. Denk je dat die functionaliteit dan daarmee volledig in de browser gebakken zit, of ben je het me eens, dat er vergelijkbaar met de desktop versie een volledige applicatie aan de kant van de server gedraaid wordt die het mogelijk maakt dat je in de browser vergelijkbare functionaliteit krijgt te zien?

De browser maakt de functionaliteit niet mogelijk, dat doet de server, de browser vormt in deze enkel het portaal naar die server. Het feit dat dit niet mogelijk was in de jaren 90 heeft minder met de browser te maken dan het feit dat de infrastructuur destijds niet geschikt was om dit mogelijk te maken.

Je vergelijking tussen een ENIAC en de moderne computer, slaat in deze context natuurlijk helemaal nergens op. Want het essentiele verschil tussen die twee is precies hetgeen dat essentieel niet verschillend is tussen de browsers van toen en nu ;)
Back en front end is gewoon één want los van elkaar functioneren ze niet.
Je kan niet Netscape aanslingeren uit de jaren 90 en het moderne internet gebruiken.

Verder laat ik deze muggenzifterij graag voor wat het is. :)
Uitvoeren van verschillende Javascripts, inclusief volledige spellen en apps (teams, goole docs, discord web, whatsapp web).
Verkeer filtering dat volgens de website gevraagd wordt op basis van firewall regels/plugins (denk aan adblockers)
Eigenlijk een FTP client ((grote) bestanden down en uploaden).
Volgens mij hebben ze ook volledige text-to-speach onder de leesbaarheidsopties.
Je vergeet ook locatie doorgeven aan de server én het wel of niet tonen van pushnotificaties (zoals tweakers dat ook doet)
Scripting wordt al een tijdje gebruikt (bestond al in de jaren 90). Plugins zijn precies dat, plugins, geen native functionaliteit van een browser. FTP client waren browsers in de jaren 90 ook al.

Veel van de functionaliteiten die we tegenwoordig in browsers doen komen van verbeteringen aan de server kant, veel minder aan de kant van de browsers.
Kwestie van definitie en interpretatie zou ik zeggen.

Database connecties, extern inladen van afbeeldingen, caching, cookies etc. zijn allemaal middels broncode ingegeven, maar het is inderdaad al decennia geen platte tekst meer :)
Daarvoor niet. Maar die webpagina's bevatten wel tekst, soms veel tekst. Als de browser van die tekst een samenvatting kan maken is dat wel een feature die direct in een browser zou kunnen passen (en volgens mij zijn er ook al browsers met die feature).

Verder vind ik persoonlijk het ook twijfelachtig wat er nu allemaal aan "AI" in browsers wordt toegevoegd. Een Firefox die automatisch voorstelt om tabs in een groep te plaatsen "op basis van AI" zou toch ook zonder AI moeten kunnen (dat kan ook op basis van URL, pagina titel, site metadata, ...).
Je leest niet goed. De marketing krijgt minder focus. Er staat niets over het weglaten van de functies
Gaat ook lastig denk ik. Die npu zit ingebakken in de moderne processoren. Maar dat een grote systeembouwer stopt met het aanprijzen van daadwerkelijk aanwezige mogelijkheden spreekt boekdelen.
Ik denk dat het grootste gedeelte van de mensen geen bal snapt van AI en intussen AI-moe zijn door alle agressieve marketing
Als AI aan veel eisen voldoet zeggen ze, maar dat lijkt mij een ilusie.
https://vivaldi.com/blog/keep-exploring/
Toen de Cloud kwam, was ook iedereen tegen. Het is iets dat moet groeien: andere doen meteen mee, andere doen half mee en weer anderen helemaal niet.

De fout die ze maken is er volop in gaan. In mijn optiek is het erg Amerikaans. Je gaat niet voor een beetje olie, maar je haalt meteen alles uit de grond, en stopt het in vaten. Ditzelfde is ook voor AI gedaan.
Het zal me ook niet verbazen dat er heel veel mensen zijn die niets van cloud moeten hebben maar het wel continu gebruiken. Zonder dat ze het echt door hebben.
Cloud was en is een stuk solider dan Ai denk ik.
Ai wordt gepresenteerd of het almachtig is, dat is het niet maar ook meteen het gevaar als het dat wel is.
@HollowGamer

Precies dit, Cloud werd je ook mee dood gegooid, nieuw buzzord, maar het had tenminste een duidelijk definieerbaar doel en praktijk laat zelf wel zien wat voor meerwaarde (of niet) dat biedt. Het is online opslag, in plaats van lokaal dingen opslaan, op een externe server, en per use-case is dat vrij makkelijk in te zien of dat handig is, of ongewenst. En wat dat betreft ook helemaal geen nieuwe techniek, goed beschouwd is iedere FTP server cloud opslag, zolang die remote is, dus er was al vraag naar soortgelijke dingen voordat het een buzzword werd.

AI probeert vooralsnog nog een probleem voor zijn oplossing te vinden. Dat is goed te merken aan dat ze het letterlijk overal in proberen te proppen, tot Kladblok aan toe, in de hoop dat mensen het gaan gebruiken. Maar de meerwaarde is gewoon te vaag, wat er precies met je data gebeurd ook en er kleeft aan alle kanten verhalen van plagiaat, privacy schending, genereren van kinder porno, en natuurlijk de hoeveelheid slop we tegenwoordig mee geconfronteerd worden. Dan is het niet gek dat men er een afkeer voor kan gaan krijgen. Cloud was tenminste nog altijd een keuze, je kon het prima negeren, maar iedereen wordt in het dagelijkse leven wel geconfronteerd met de voor en vooral nadelen van AI.

Dat is toch wel een fundamenteel verschil. En ik geloof ook niet dat er ooit een Cloud-bubble was, waar er wel een duidelijke AI-bubble is. Inderdaad de fout door er volop in te gaan (en eens dat dit erg Amerikaans is), dat heeft volgens mij met name te maken omdat Altman en Co heeft lopen roepen dat dit de weg naar AGI is (aslin, blijf geld pompen, er is een doorbraak op komst), waarvan nu toch wel erg pijnlijk duidelijk is dat het dat nooit gaat worden. Plafond van LLM-AI is wel bereikt, je kan het groter en breder schalen, maar het gaat niet veel meer doen dat het al doet (wat prima toepassingen heeft, maar niet voor de mainstream consument), en dusver is de adoptatie ervan vrij magertjes.
De bubbel is met name dat men er in blijft investeren, niet of het wat oplevert. Men is bang dat men de boot mist en in deze fase dat de gedane investering redundant wordt. Dus men blijft inversteren. De zakken zijn een stuk dieper dan bij de .com bubbel destijds. AI begint ook al z'n sporen achter te laten op andere vlakken zoals prijzen van RAM en GPU's (Gaming kaarten verdubbelen in prijs en zijn dan nog nauwelijks te krijgen). In de USA gaan in sommige staten de elektriciteit prijzen flink omhoog, als gevolg van AI datacentra.

Deze bubbel is, of wordt "to big to fail" en dat zie je aan alles. Wanneer de bubbel plopt, dan heeft de wereld economie een flink probleem.
Vivaldi, niet eens genoeg voor een eigen categorie op statcounter.com waar ze dan in de categorie "other" gestopt worden. Minder dan 1%.
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/142.0.0.0 Safari/537.36

Dat is mijn Vivaldi.

Dat doen ze omdat sommige websites expliciet javascript uitvoeren voor Chrome/Safari enzo, en dan valt Vivaldi buiten de boot, terwijl het gewoon werkt.

Het marktaandeel is vast niet veel meer dan 1%, maar wel genoeg om in leven te blijven en doorontwikkeld te worden.
De kans is aanwezig dat ze verstopt zitten in de categorie Chrome. Enkele jaren geleden waren ze er klaar mee dat websites random (of eigenlijk vooral Google-dingen) sneuvelen in een 'onbekende' browser, en sindsdien doet Vivaldi alsof het Chrome is.
Precies, dat dus. Eigenlijk zou het nog eens mooi zijn als er een automatische truc zou kunnen worden gevonden, dat er in de code zoiets kan komen als “if normal = vivaldi; if notsupported = chrome”. Ja, ik weet het, dat is niet hoe code eruit ziet, maar ik ben geen programmeur. :P Gaat meer om het idee, dus dat zodra de browser merkt dat er wordt doorgegeven dat er geen ondersteuning is, dat die automatisch de gebruikersagent voor die site aanpast.
Dan moet je de site dubbel laden om dat te detecteren. Dus meer bandbreedte, meer CPU resources, langere laadtijden. Dan gaat iedereen klagen dat de browser traag is en gebruikt niemand het meer.
Dat kunnen ze vast wel optimaliseren, toch? Al dan niet met behulp van AI.
Als je meer werk gaat doen kan je optimaliseren tot je een ons weegt, maar dat is altijd nog slechter dan het meerwerk niet doen. Zeg maar wat alle andere browsers doen.

Dus nee.
Idealiter zou het natuurlijk de engine moeten zijn waar naar gekeken wordt. In 99,5% van de gevallen werken sites prima in Vivaldi, ook al zegt men het niet te ondersteunen, puur omdat de onderliggende engine gewoon zijn werk doet.
Ik denk dat je niet snapt hoe een user-agent en user agen detectie werkt. Die user agent moeten ze doorgeven vanuit de standaard. De site gebruikt standaard technieken om die user agent detectie te doen. Niets hiervan is optioneel als je een werkende site wilt hebben als browser of uberhaupt maar enigszins compliant wilt zijn met het huidige web.

User agent detection is iets wat afgeraden wordt maar het komt Google bijv. heel erg goed uit om het toch te doen om hun eigen browsers voor te trekken. Prima, kan je als browsermaker echt helemaal niet aan doen.

Je hebt als browsermaker dan de keuze: je eigen useragent doen zodat het goed staat in de statistieken, of die van Chrome imiteren en de users een fatsoenlijk werkende site geven. Dat zijn je opties.
Dat gaat niet werken, detecteren of een website werkt zoals die zou moeten werken is een praktisch onoplosbaar probleem, tenzij de browser weer uit een database van verzamelde informatie over websites en hoe die zouden moeten werken zou kunnen putten. Dat is ironisch genoeg op zich iets wat AI misschien zou kunnen doen, maar dan moet je dus ook een hele bak data hebben.

Uiteraard kan je wel zien of bijv. de javascript code een error gooit maar dat is veel te simpel gedacht over ‘functioneren’ van een website.
Tegenwoordig wil je dat je browser engine en andere properties zo weinig mogelijk uniek zijn om fingerprinting en andere spyware te voorkomen. Als je je voordoet als normale Chrome browser, dan ben je minder makkelijk te volgen.
Dat had Linux en Firefox, Brave enz ook niet, maar dat wil niet zeggen dat ze het mis hebben of niet noodzakelijk zijn.
LOL. Geen enkel causaal verband.
Het is maar hoe je het wilt begrijpen.
Wat ik bedoel dat er gelukkig meer bedrijven (en mensen) zijn die zich niet blind laten lijden door AI.
En Linus weigerde Linux te stoppen voor Apple, beiden doen het prima in hun eigen manier
Interessant statement over dat stoppen maar weinig context. Kan je ons meer context geven?
Het ligt er maar aan welk deel van Linux dat je bedoelt.
Misschien dat AI ook zijn toepassingen vind, maar niet zo alomvattend zoals het meestal gebracht wordt.
Ik zou willen dat die bubbel permanent barst, maar ik denk dat dit helaas nog niet gaat gebeuren.

Als Microsoft dit nu ook eens dit inziet, ik ken 2 mensen die AI integratie SOMS op hun Windows 11 PC gebruiken, meeste mensen die ik ken die AI gebruiken doen dat in een browser, soms op hun telefoon (meestal Gemini) omdat dat gewoon fijner werkt, je pakt het erbij wanneer je het nodig hebt, terwijl wat MS doet gewoon pushen is (zelfs Paint heeft dat tegenwoordig).
Zij bouwen het standaard niet in hun browser, dat is inderdaad waar. Maar de gebruiker kan dat wel zelf toevoegen, wanneer hij/zij dat wenst. En ook op de manier zoals hij/zij dat wil, met de providers die hij/zij prefereert.

Dat is zoals het hoort, naar mijn mening. Wil je AI in je browser, dan ben je daar geheelm vrij in. Wil je dat niet, hoef je je met Vivaldi geen zorgen te maken dat een AI, die je zelf niet hebt gekozen, je door de strot word geramd.

Vivaldi scoort daarmee serieuze pluspunten. In mijn boek tenminste.

Het einde van de bubbel, dat is het echter niet.
Inderdaad.
Nee Vivaldi zelf is daar niet debet aan, ook Dell niet.
Maar dat het een bubbel is die een keer leeg loopt denk ik wel.
Ik denk dat niemand primair gefocused is op AI, het is handig als een tool maar het hoeft niets voor ons vanzelf te doen.
Daarnaast draait het meeste in de cloud en draaien de meeste mensen niet lokaal een LLM.
Precies dit. Het kan superhandig zijn allemaal, maar alle opties zijn vaak handigheidjes waar je geen nieuw apparaat voor gaat kopen. Een beetje als met telefoons en OS-upgrades.

Leuke extraatjes, maar geen game changers
Het doet me goed dat de wereld langzaam iets meer op de rem gaat staan van de AI hype. Laten we hopen dat we de AI bubbel leeg kunnen laten lopen zonder hem te laten klappen.
Inderdaad eindelijk eens een fabrikant die het snapt.
Ik denk dat het daar te laat voor is, vrijwel elk bedrijf is er in getrapt en er is gigantisch in geïnvesteerd. De geheugen markt is al een reden dat het niet anders kan dan klappen, ergens verdwijnt er geld.

Het is vooral denk ik wachten op de kosten stijgingen, AI was te goedkoop en de kosten voor hardware worden ook daar duurder. Het word overal verkocht als kostenbesparing, met cijfers, en dat is allemaal gebaseerd op de huidige kosten. Als de verwachtingen niet waar gemaakt worden en de kosten flink stijgen zie ik niet in hoe het niet kan barsten maar leeg lopen.
De enige rem waar ze op staan is die van de marketing. Ze blijven gewoon nog de producten maken. Alleen minder met een AI focus op de features.
Best mooi de combinatie van deze post gecombineerd met deze van een half uur geleden:
Lenovo komt met AI-assistent Qira voor laptops, tablets en Motorola-telefoons

Ik hoop dat Dell, en niet Lenovo, de juiste keuze maakt hier
Een AI assistent die met de gebruiker meekijkt naar wat er op het scherm staat en zijn complexere taken in de Chinese cloud laat uitvoeren, ik denk niet dat veel Westerse gebruikers daar blij van worden. Voor hun lijkt me de keuze van Dell een stuk prettiger.
Ja het is zoiets met als de playstation en xbox, was met de ps3 of ps4 en de xbox nog wat.
Microsoft wou volledig online gaan, geen delen etc mogelijk meer.

Sony tijdens hun presentatie, een game delen ja hoor dat kan. Hij pakte een doosje en gaf hem zo aan de andere presentator :+ .
Ik hoop ook dat Dell hier een goeie keuze maakt, en dit een langzame verschuiving gaat zijn naar wat minder geforceerde AI in alle toeters en bellen.
Inderdaad iemand die zich uitspreekt!

Al heb ik persoonlijk niks met Dell, ze geven tenminste toe dat de meeste mensen totaal niks met AI te maken willen hebben!
Mensen willen vooral profiteren van snel beschikbare AI diensten, zonder geneuzel. Vrijwel niemand wordt blij van lokaal te installeren complexe AI modellen die al je geheugen en CPU opslokt. Sowieso veel te veel gedoe, te technisch en te complex en dan vaak ook inferieur t.o.v. wat de grote jongens als OpenAI, Anthrophic en Google je kunnen bieden. Daar kopen mensen geen PC voor. AI-enthousiastelingen die hier wel heel blij van worden, vinden hun weg naar specialistische apparaten als een Nvidia DGX, of kiezen wellicht voor een kant-en-klare Mac Mini of een specced-out custom PC waar ze dan ComfyUI etc op installeren.
Ja eindelijk eens een bedrijf, hopen volgen er meerdere :).
Al heb ik persoonlijk niks met Dell, ze geven tenminste toe dat de meeste mensen totaal niks met AI te maken willen hebben!
Hoe kom je nou aan die conclusie? Stel: De Albert Heijn stopt met het adverteren van bier. Komt omdat niemand bier wil, of verkopen ze geen flesje meer verkopen door die advertenties? Wat is waarschijnlijker?

De marketingmolen van Dell is er achter gekomen dat ze er geen computer meer door verkopen. Dat is alles wat hier staat. Mensen hebben niets "met AI", maar ook niet "tegen AI" En beide groepen zitten uiteraard wat uitzonderingen.

AI-functies kunnen super-praktisch zijn, maar niemand gaat er een nieuwe PC voor kopen. Zie ook met telefoons. De bulk van de mensen koopt niet iedere keer nieuwe telefoons vanwege al die mooie nieuwe features (op de happy few na).
Dankzij AI koopt de consument helemaal geen computer meer, te duur :P
Niet alleen te duur. De doorsnee consument (niet de fanatieke gamer) doet ook een stuk langer met een PC. Het eindigen van Windows 10 zal voor een wat hogere vraag zorgen, maar alleen voor PC's die ouder zijn dan ~8 jaar. De rest gaat gewoon over op Windows 11 of kabbelt nog wat langer door op Windows 10.

Deze duurdere tijd die mogelijk een paar jaar gaat duren is voor velen niet moeilijk te overbruggen. Wat je hebt werkt en blijft doen wat het nu doet.

[Reactie gewijzigd door The Zep Man op 7 januari 2026 12:54]

Eindelijk een bedrijf dat het begint te snappen, we willen niet AI we willen betaalbare PC's
Eindelijk een bedrijf dat het begint te snappen, we willen niet AI we willen betaalbare PC's
Dell zit vuistdiep in AI, het gaar hier echt alleen om marfketing.

De kunst van begrijpend lezen lijkt verloren....
Het feit dat ze het niet meer actief reclame maken voor de functie omdat het de verkopen negatief beoordeeld spreekt anders boekdelen. Ja Dell zit er vuistdiep in, maar begint blijkbaar toch te merken dat de consument er niet op zit te wachten.

Ik zie dit toch echt wel als de eerste serieuze barst in de AI hype.
Een correcte spelling zou dan wel helpen bij het begrijpen :P
Zoveel duurder zijn die AI-pc's toch niet? Er zit alleen een (extra) NPU'tje in. De rest is software. (of vergis ik me? Ik kan me hooguit voorstellen dat ze kunstmatig duurder zijn door de marketingmolen.
lokale LLMs die hebben veel RAM nodig. En je bent toch wel ermee bekend dat er sprake is van een RAMpocalypse? Zag op Minisforum website de AMD Strix 395+ APU systemen met 128 GB aan unified RAM erin voor 2200 USD zo'n 4 maanden terug. Hetzelfde systeem kost nu bija 3100 USD. En ze vliegen nog steeds als warme broodjes uit hun winkel, ook voor die prijs.

Marketing heeft niets met die prijsverhoging te maken.
Klopt, maar je hebt geen volwaardige LLM nodig voor heel veel dingen. SLMs kunnen heel nuttige taakspecifieke dingen doen. Zaken als STT, TTS, documenten/fotos zoeken (functioneel), enz.

Edit:
https://www.dell.com/nl-nl/shop/dell-laptops/dell-16-plus-2-in-1-laptop/spd/dell-db06250-2-in-1-laptop/cndb0625001
Een 'AI-laptop' voor 680 euro, 46 TOPS en 16GB geheugen. Bij lange na niet voldoende om (breed inzetbare) LLMs te draaien, maar voldoende dan genoeg voor lokale CoPilot-achtige zaken.

[Reactie gewijzigd door lenwar op 8 januari 2026 09:48]

*Don slaat op tafel

PRECIES!!
Klopt, het verwart mij ook.

Om te kunnen reageren moet je ingelogd zijn