Anthropic toont Claude Haiku 4.5-model dat sneller en goedkoper kan programmeren

Anthropic introduceert een nieuw AI-model, genaamd Claude Haiku 4.5. Volgens de makers is dit model ongeveer even goed in programmeren als Sonnet 4, maar ruim twee keer sneller en aanzienlijk goedkoper. Het model is per direct beschikbaar.

Claude Haiku 4.5 is een 'klein model', schrijft Anthropic in een persbericht. In programmeerbenchmarks komen de prestaties van het AI-model overeen met die van Claude Sonnet 4, dat eerder dit jaar verscheen. Haiku 4.5 moet echter 'ruim twee keer sneller' zijn in het genereren van code, tegen een derde van de kosten. In bepaalde taken zou het nieuwe model zelfs beter presteren dan Sonnet 4, zoals het gebruiken van computers. Daarmee moet Haiku 4.5 ook diensten als de Claude-extensie voor Chrome verbeteren.

Het nieuwe Haiku 4.5-model presteert in alle genoemde benchmarks minder goed dan Claude Sonnet 4.5, het topmodel van Anthropic. Haiku 4.5 is volgens het bedrijf vooral gericht op gebruikers die op zoek zijn naar efficiëntie en lage kosten. Het model is per direct beschikbaar via Claude Code en Anthropics apps. Ontwikkelaar kunnen 'claude-haiku-4-5' selecteren via de Claude-api. Het model kost 1 dollar per miljoen inputtokens en 5 dollar per miljoen outputtokens.

Door Daan van Monsjou

Nieuwsredacteur

15-10-2025 • 20:00

61

Submitter: Westpjotr

Lees meer

Reacties (61)

Sorteer op:

Weergave:

Vraagt bij Pro alsnog gewoon vrolijk om een API key en weigert.. Aangezien ik geen idee heb waar ik een API key vandan moet halen.

Ok... zie dat je met pro maar 0,33x hebt.. dus tja.... thanks but no thanks. En die 0,33x valt gewoon binnen je zeer gelimiteerde premium gebruik die je binnen notime gebruikt hebt.. Dus helaas, geen preview testen tenzij enterprise.

[Reactie gewijzigd door Darth Malak op 15 oktober 2025 21:45]

Sonnet 4.5 staat ook op '1x' maar heb nog nooit een limiet gehad of bij moeten betalen? Zelfs geen waarschuwing van 'je bent close' gehad. (Loop ook even door het dashboard heen te zoeken nu of ik wat gemist heb, maar nu, altijd $0).

Wat doe je dat je limieten raakt dan??
Ik merk dat het bij mij toch echt best snel gaat, vorige maand heb ik naar mijn idee niet gek veel gebruik gemaakt van Copilot (gezien ik überhaupt niet veel code momenteel), toch zat ik na 3 weken opeens aan de limiet. Uit voorzorg gebruik ik nu maar Grok 4 als main model, want ja, deze maand ben ik wel actief…

Kreeg inderdaad ook niets van een waarschuwing van tevoren, kon plotseling alleen nog de basismodellen gebruiken..

Ik gebruik wel erg veel Agent mode, misschien dat dat er aan bijdraagt

[Reactie gewijzigd door kyan0045 op 15 oktober 2025 23:35]

Agent mode verbruikt inderdaad wel een pak meer. Vorige maand ook eens een paar keer geprobeerd en zat ook snel aan de limiet.
Ja bij Anthropic lopen de kosten veel harder op dan bij OpenAI.
Ik heb onlangs claude getest en dat beviel goed, maar ik was echt zo door mijn budget heen.

Om een beeld te geven hiervan heb ik voor de maand september naar mijn persoonlijk AI verbruik gekeken bij openAI, en een schatting gemaakt van het verschil in kosten: Antropic is dan ~20x duurder dan OpenAI.

Achtergrond: ik gebruik zowel online als local AI, en bij online is dat vooral openai (maar dan wel developer account). De services die ik gebruik: multimodal llm, maar ook embeddings, audio & speech. Dit consumeer ik via VSCode+Continue plugin (soort van co-pilot). Maar ook software die ik ontwikkel gebruikt deze AI modellen, dus ook mijn persoonlijk gebruik en testen van deze software zorgt voor gebruik.

Cijfers:
  • OpenAI verbruik Sept
    • 13.000.000 tokens in totaal
    • ~ 10.000.000 input / 3.000.000 output (kan dit niet goed zien zonder usage rapporten uit te pluizen)
    • Total Spend: $15.03
  • Claude API Pricing Calculator:
    • 10 mln input / 3 mln output @ claude x.y => $75
    • 10 mln input / 3 mln output @ opus x.y => $375
Voor die OpenAI kosten kan ik denk ik niet eens nauwelijks lokaal 24/7 draaien (enkel stroomkosten; geen aanschaf/afschrijving):
  • aanname dat AI server 50W gemiddeld draait (idle + peak)
  • 30 dagen x 24 uur x 50W x 0.27ct/kwh = 9,72 euro

[Reactie gewijzigd door vargo op 16 oktober 2025 15:18]

Je gaat dus voor kwantiteit? Heb ook toch verschillende modellen geprobeerd. Kom altijd terug bij Claude als het gaat om code quality. En sowieso engineeringsvragen is ChatGPT of Grok nog echt onvolwassen. Maar dat is hoe dat bij mij aanvoelt. Maar ook dit is natuurlijk een eik punt in de tijd. Ben echt wel fan van sonnet 4.5 de kwaliteit/speed is echt iets waar ik nu prima mee uit de voeten kan.
Die kwantiteit komt doordat Continue mijn codebase indexeert (lokaal), en als context gebruikt bij het gesprek: dat zorgt voor veel input tokens. En ook mijn eigen oplossingen doen vaak een soortgelijk iets, maar ik vermoed dat continue de grootverbruiker is.

Ik gebruik dus geen chatgpt, maar spreek de onderlinge modellen via de APIs aan, en een "chat/plan/agent" verloopt dus binnen de IDE (VSCode) omgeving, als side-dock naast de code.

Bovendien is dit ook een mix- and match: ik kan binnen 1 sessie van leverancier en model switchen (bijvoorbeeld naar een reasoning model als ik met de standaard modellen er niet uitkom). Ook lokaal (ollama/lmstudio).

Wb de kwaliteit:
  • Ik vond claude goed maar ook met gpt behaal ik goede resultaten (en ook mistral of lokale modellen). Welke de beste is zou ik liever in benchmarks testen.
  • Maar ik heb zeker geen afscheid genomen van claude en ga 4.5 zeker ook nog zelf een tijdje gebruiken. En de agent verder verkennen (MCP). Ik heb enkel geleerd dat ik wat meer op de kosten moet letten bij Anthropic.
  • over het algemeen blijf ik zelf in control, geen vibe coding hier. Ik laat het model ook liever een basisprobleem oplossen, en daarop itereren dan in 1 keer een hele grote code base genereren.
  • Continue helpt de kwaliteit te verbeteren:
    • met rules kan ik project specifieke regels instellen die in de system prompt meegaan (bijv coding styles voor code gen, of architecture rules voor plan modus)
    • je kan ook hele prompt instructies in markdown schrijven, en die als slash command aanroepen (voorbeelden)
    • ...daarmee heb ik aparte rules en prompts voor python vs typescript vs c#sharp, en een unity game vs microservice architectuur
    • je kan MCP servers definieren die op je hele systeem beschikbaar zijn, of voor een specifiek project (bijv een MCP server die je problem domain documenteert en waar in agent mode dan gegevens kunnen worden opgehaald)
    • een ander voordeel is dat ik met Continue ook makkelijk volledig lokaal kan draaien en alle data lokaal houd
Kortom, voor mij zijn LLMs stukken gereedschap en het is dus niet alleen de intrinsieke training van het model, maar ook de tools eromheen waarmee je ze juist kan aansturen.

PS. Okay, nog een coole nabrander: ik kom er nu achter dat ik bij Anthropic aan prompt caching kan doen om de kosten te verminderen. Er lijkt hier een prompt voor Continue.dev voor te zijn?
Security of code kwaliteit analyse over iets groter code bases?
Ik schiet thuis razend snel door de limieten heen. Ben wat van mijn oude projecten aan het upgraden en documenteren.
Moet zeggen dat er volgens mij nauwelijks betaalbare opties zijn voor AI die ook nog IDE integratie heeft tenzij je een enterprise developer bent.. Al de opties voor $10 of $20 zijn eigenlijk compleet waardeloos and onbetrouwbaar en gelimiteerd...

Leuk die AI bubble maar vooralsnog volgens mij volledig gericht op enterprise.

Ik heb het graag mis dus als er wel goede free/betaalbare alternatieven zijn hoor ik het graag
Ik vind GitHub Copilot anders prima voor 10 dollar de maand. 300 1x-premium requests (zoals Claude Sonnet 4.5) en ongelimiteerd GPT-4.1.
Die premium requests zijn zo vervlogen en val je daarna terug op chatgpt 4 die praktisch nutteloos is afhankelijk van de language waarvoor je heb gebruikt (c# in iig niet erg bruikbaar)
Nogmaals.. ervaringen zullen ongetwijfeld verschillen afhankelijk van hoe en waarvoor je het gebruikt.
Ik gebruik alleen Ask en Edit in VS Code, en dan alleen als hulpmiddel voor boilerplate code of ergens wat aanpassingen. Dan gaat het niet heel snel eigenlijk met de requests. En ik denk dat het ook met de taal te maken heeft waar je in programmeert ja, Python (wat ik voornamelijk gebruik) heeft gewoon gigantisch veel FOSS-code online staan waarop de "gratis" GPT-4.1 getraind is.
Correctie poging
Plaats dit imarkdown bestand op het hoogste niveau van je repository, in de map .github/ (dus: .github/copilot-instructions.md). Dit bestand wordt gebruikt door GitHub Copilot in Visual Studio Code in agent modus om het gedrag te sturen.

edit: code verplaatst naar GitHub
https://github.com/BrickD...opilot-gpt-code-improver/

@Darth Malak
Laat me weten of dit helpt .

[Reactie gewijzigd door djwice op 15 oktober 2025 23:57]

Thx.... beetje lastig om te vergelijken wat er precies gebeurt en de vershillen tussen de verschillende models... Agent mode raakt i.i.g. nogal totaal verward bij wat nieuwe functionaliteit impelementatie van een bestaand project... Endless interations met broken braces en niet compile bare code..

[Reactie gewijzigd door Darth Malak op 17 oktober 2025 17:09]

Als je onder je instructie aangeeft dat ie strict de custom-instructions.md moet volgen, heb je kans dat GPT-4.1 in 1x een werkend applicatie leverd.

Vandaag in 2 instructies een speech to text to vertaling to speech app gemaakt op die manier: nog geen 9 kilobytes.
Incl. UI alles.

[Reactie gewijzigd door djwice op 17 oktober 2025 19:09]

Gebruik je custom instructions?
Wellicht kan Claude de best practices daarin opschrijven voor GPT4.1

De token besparende acties die zorgen voor brekende code en niet doen wat ie zegt van GPT heb ik nog niet kunnen adresseren, als jij dat wel gevonden hebt: tell us!

[Reactie gewijzigd door djwice op 15 oktober 2025 21:26]

Gezien het niet mijn veld is, maar hoe duur zijn dan de dure opties? Want ik zou denken dat ook als ZZP'er dat heel snel uit kan, als je daardoor daadwerkelijk productiever bent. Is het puur hobby matig, ja dan wordt het een ander verhaal.
De geluiden die je hoort zijn nogal wisselend. Ik ben zelf software engineer en ik vind zelf niet dat de huidige modellen me netto tijd besparen. En ik las laatst een onderzoek waaruit bleek dat mensen wel denken dat ze tijd besparen, maar in werkelijkheid juist minder productief zijn.

Aan de andere kant merk ik ook dat het wel nieuwe mogelijkheden biedt. Ik pak makkelijker een taak op in een code base die ik niet ken, of zelfs in een taal waar ik weinig ervaring mee heb.

Ik heb het geluk dat mijn werkgever deze tools betaald. Maar of ik €180 per maand zou betalen ervoor als ik ZZP-er was? Ik weet het oprecht niet.
Een (toegegeven heel persoonlijk) voorbeeld:

Ik moet regelmatig voor het werk voor een klant wat maken. Gevalletje: Hier is een JSON, zorg voor de HTML en CSS om het op een nette manier weer te geven aan eindgebruikers.

Vroeger was dat een copy-paste gevalletje. 1 keer veel tijd er in steken en daarna aanpassen voor de data die voorhanden is.

Nu is het een gevalletje "Hey Claude, hier is een JSON, hier is ons storybook en de tokens die je kan gebruiken, geef me iets dat dit mooi weergeeft" en totnogtoe was de eerste poging elke keer beter dan het copy-pastewerk van toen.

Dit bespaart me netto toch wel een aantal uren per week die ik aan "nuttige" taken kan spenderen. Ik zit trouwens 'maar' op Team met een standard seat aan als ik me niet vergis 25 dollar per maand (door m'n werkgever betaald). Elk werkuur kost m'n werkgever ongeveer 60 euro, dus zelfs al haal ik er 30 minuten tijdswinst per maand mee dan betaalt dit abonnement zichzelf al terug.
Ik gebruik ChatLLM en dat kost in de basis 10 dollar per maand (accepteren alleen creditcard).
Je kunt eventueel extra credits bijkopen en deze credits kun je gebruken in de web interface als de API. Ook bieden zij een fork van VS Code (vergelijkbaar met Codium) aan AI integratie.

Momenteel bieden zin 30 AI modellen aan waaronder Sonnet/Haiku 4.5, Opus 4.1,GPT 5 (Code, Thinking en regular), Gemini Pro, Grok, Qwen, DeepSeek, maar ook image/video modellen zoals Nano Banana, Flux Pro, Dreamina, Sora 2, Wan 2.2, Kling AI 2.5, Veo 3.1.

Persoonlijk gebruik ik de video modellen vrijwel nooit, maar de image modellen gebruik ik regelmatig voor custom icoontjes op basis van een aantal bestaande iconen.

Ik heb zelf (met hulp van AI) een Ollama API compatible clone geschreven naar ChatLLM, waardoor elke IDE tool welke met Ollama kan werken, ook toegang heeft tot ChatLLM en het werkt zelfs met vim: https://github.com/gergap/vim-ollama

Ik moet maandelijks ongeveer voor 40 dollar aan credits bijkopen waardoor de totale rekening op $50 per uit komt.
Het valt en staat met je eigen kennis. En je eigen LLM skills. Je skill om te programmeren moet je combineren met je LLM skills. Het goed kunnen specificeren wat je wil je erg belangrijk en een skill.
Jajaja. Maar het hangt ook sterk af van wat je aan het programmeren bent. HTML, CSS, Python? Daar zijn LLMs over het algemeen best goed in. Ik werk op mijn werk veel in Kotlin, en je merkt echt wel dat LLMs daar minder op getraind zijn. (Is ook logisch: er is veel meer Python code out there dan Kotlin code.) Er komt heus wel Kotlin uit, die ongeveer doet wat je wil. Maar er zitten soms ook best wel domme fouten in. En de LLMs weten duidelijk niet alle best practices van de taal.
De dure abbos zijn pakweg EUR 200 ex per maand, zowel van Anthropic als OpenAI. Ik heb zelf Claude Max 20x (de duurste dus) en ik gebruik het elke dag. Het geld dubbel en dwars waard. Je moet wel weten wat je doet en hoe je het wel of niet moet gebruiken natuurlijk, maar dat is met een hamer ook.

Ik ben denk ik pakweg drie keer zo productief, en lever ook nog eens beter werk af.
Merk hetzelfde. Maar omgaan met AI, en tools zoals Claude Code en agents managen. En goed je design specificeren en alles modulair maken en documenteren is wel key bij succesvol LLM toepassen.

Je moet het gewoon zien als een nieuwe soort gereedschap in je toolbox. Ook dit kan iemand of goed of slecht.
Het is ook heel logisch dat ze dat doen. De kosten van de servers, opslag en training kosten heel veel en bij consumenten is het rendement gewoon te klein.
Nee natuurlijk..... Begrijpelijk maar maakt het nog wel jammer dat het zo moet zijn... Maakt het hele AI gebeuren een heel stuk minder interessant als je er zelf geen gebruik van kan maken. Voor mij i.i.g.
Zelf betaal ik €180 per maand voor claude (Max 20x) en ik haal het geld altijd er zo uit
dan ben je dus geen hobbyist maar gebruik je het voor je werk en dus duidelijk niet de groep waar ik het over heb
Ben zzp'er maar ik haal het ook uit voor mijn studies, hobbies, vakantie planningen en nog voor vele privé zaken. Gebruik het wel 35% zakelijk en de rest privé
Dmv werk heb je het idd snel terugverdiend dus het antwoord is dan ook simpel, het kost je niks en levert wat op (netto). Maar hoe sta je er dan in als je euro kwijt bent en daar geen geld (alleen gemak/hulp) voor terugkrijgt?

[Reactie gewijzigd door watercoolertje op 16 oktober 2025 07:02]

Maar meer dan 300 request per maand is toch ook niet echt hobbymatig gebruik meer?
Ik gebruik het zowel als hobby als voor mijn werk, maar voor het werk meer voor data analytics en niet heel veel. Voor privé hobby spul wel meer. Dan is die 300 tokens + de prijs voor een top up echt wel voldoende! Ik heb één maand gehad waarbij binnen een week door de tokens heen was en heb die maand 20 bijgeladen. Andere maanden 10 of niks. Dus pak gemiddeld 10. Daar kan je als hobbyist toch wel heel veel doen! Plus je kan afwisselen met Grok (0 tokens) en Chatgpt 4 (werkt in mijn geval al prima) en evt Chatgpt 4 in Beast mode.

Wat voor hobby project heb je dan dat je daar niet mee toe komt? Met bovenstaande heb ik werkelijk uren achter VS Code gezeten.
Heb ook Claude max. Duurste abbo maar:
  1. Ik gebruik het om dingen te leren eigen kennis te vergroten
  2. Heel snel prototypes en ideeën uitwerken.
  3. Als soort assistent die mijn ideeën rap uitwerkt.
  4. En nog veeeeeel meer. De prijs is dan peanuts. Met hoeveel waarde je ermee kunt genereren als je weet hoe het moet.
Is het zo gek dat de topmodellen gericht zijn op betalende zakelijke gebruikers? Dat is toch met al het gereedschap? Photoshop is ook veel duurder dan simpelere pakketten die op hobbyisten zijn gericht.
Wie zegt dat het gek is?
Gratis gaat m sowieso niet echt worden als je na gaat hoeveel servers er staan te draaien om dit in de lucht te houden.

Eigenlijk is 20 euro per maand al te weinig. Heb zelf de Claude Max en daar kan je wel volledig mee uit de voeten, al zitten daar net zo goed limieten aan per dag/maand
Ach, vergelijk het eens met wat er soms voorbij komt in forumtopic: Zilveren HIFI-kabels gesmeed door elfen bij maanlicht #6 en je zult zien dat de progrmmeurs nog voor een dubbeltje op de eerste rang zitten voor hun placebo.
Ik heb het graag mis dus als er wel goede free/betaalbare alternatieven zijn hoor ik het graag
Dan zou je lokale LLMs kunnen draaien via bijvoorbeeld LM Studio. Voor development ben ik nu wat testen aan het draaien met kat-dev-72b-exp-mlx op mijn Macbook en het aantal tokens/sec is wel laag (5-6) maar moet zeggen dat tot nu toe, mits de prompt goed is, het resultaat op zich niet verkeerd is. Maar heb nog niet veel testen gedraaid.

[Reactie gewijzigd door dvdmeer op 16 oktober 2025 08:12]

Local opensource models hebben volledige IDE integratie en zijn geheel gratis/lokaal. Voor mij als programmeur werkt dat prima (ik hoef niet te vertrouwen op 100% vibe coding; ik gebruik het als soort van auto completion en quick skeletons, en dat doet het prima). LM-Studio + VSCode met Continue extension + Qwen3 Coder 30B-A3B. Kan proberen of dat slim genoeg voor je is. Voor mijn doel wel iig.
Wat voor hardware gebruik je voor je Qwen3 inference?
Hier gebruik ik ook Continue, en dan de "local agent" (maw ik hou al mijn setup + API keys lokaal op mijn laptop).
RTX 3090 (24GB vram) en verder gewoon ryzen9 12-core met 64GB ram maar dat boeit niet zo heel erg
Probleem waar ik mee te maken heb is dat ik niet echt goed weet hoeveel max tokens Ik moet instellen bij LM studio en hoeveel GPU offload.. 5080 btw en 64gigs RAM... De output van LM in vscorde is tergend langzaam, letter voor letter en klaagt nogal eens over te grote context 60K +
Hmm vreemd ik heb gewoon alle default en dan is de output super snel. Niet te groot model ofzo?
Oh top, ik gebruik wel graag Claude code, maar kosten toch wel iets wat stevig voor eigen gebruik. Morgen eens proberen
Ik heb 'm altijd op Sonnet staan, en ik top af en toe m'n saldo weer op. En ik moet zeggen, ik kan maanden doen met $15. Maar ik gebruik het dan ook niet zo veel, alleen als andere tools vastlopen.

Met Gemini en Gemini CLI kan je een API key krijgen met een x aantal requests en gebruik gratis per dag, mijn rekening is nog nooit over de 0,0 heen gekomen.

Eni k betaal nu al een paar jaar een tientje per maand voor Copilot. Dus meestal gebruik ik dat voor GPT / Sonnet access, en Gemini CLI als het vastloopt, en alleen bij uitzondering Claude Code.

(Maar in mijn ervaring werkt de nieuwe agent mode in vscode net zo lekker met GPT en Sonnet 4.5 als Claude Code).

Als je Opus als Claude model gebruikt (hun top model, staat typo in het artikel denk ik) dan gaan de kosten _hard_. Levert wel wat op, maar veels te duur voor hobby werk inderdaad.


Het lijkt met dit hele rijtje alsof ik een AI grootgebruiker ben maar dat valt behoorlijk mee denk ik. Maar dat tientje Copilot is het absoluut waard (als VSCode gebruiker) voor wat je er voor krijgt.
Opus is nu niet meer het top model. Sonnet 4.5 is beter dan Opus 4. En er is geen Opus 4.5.
Zei ik ergens opus 4.5, bedoelde dan 4.1. en ik weet dat er veel wordt geroepen dat sonnet 4.5 het outperformed , maar in mijn ervaring zit er nog steeds heel veel verschil tussen, in het voordeel van Opus.


Ik kan geen Claude code opdracht geven waar sonnet naar de eerste paar acties compleet of the rails gaat ze terwijl opus kwaliteit blijft geven de hele sessie .
Als je Opus als Claude model gebruikt (hun top model, staat typo in het artikel denk ik)
Is wat jij zegt. Wat dus aangeeft dat jij denkt dat Opus nog steeds het topmodel is. Terwijl dat volgens de benchmarks en Anthropic zelf toch echt Sonnet 4.5 is.
Bij Perplexity kun je o.a. Claude " Model" kiezen en heb je Perplexity 12 maanden gratis of voor weinig geld.
Keuze tussen Models:
Sonar,
Claude Sonnet 4.5 ,
GPT 5 ,
Gemini 2.5 Pro ,
Grok 4 ,
Claude Opus 4.1 (max) ,
03-pro (max)

Gratis voor Studenten 12 maanden (wordt gecontroleerd):
https://nl.pepper.com/aanbiedingen/12-maanden-perplexity-pro-studenten-374012

Gratis voor ZiggoVodafone12 maanden (wordt gecontroleerd) (heb ik):
https://www.priority.nl/rewards/64af790a-f770-4340-9b10-6421bad531e8_perplexity-deal-priority#:~:text=Met%20Priority%20van%20Vodafone%20en,Pro%20nu%2012%20maanden%20gratis.&text=Vind%20opnieuw%20je%20weg%20online,past%20zich%20aan%20jouw%20nieuwsgierigheid.

Voor 4,47 euro 12 maanden (betalen o.a. via Revolut):
https://www.mydealz.de/deals/perplexity-ai-pro-jahresplan-gpt-4o3o-pro-claude-40-gemini-latest-module-grok-3-dall-e-3-stable-diffusion-xl-claude-40-sonnet-2617327

[Reactie gewijzigd door Antonio di op 22 oktober 2025 00:39]

Je kan ook volledig gratis lokaal AI coding modellen draaien. Ik draai zelf bijvoorbeeld Qwen3 Coder 30B voor vragen en voor code completion Qwen2.5 Coder 14B. Ik zie weinig/geen verschil met de betaalde copilot die ik voorheen gebruikte... en het kost niks (nouja, de 3090 RTX die ik toch al had)
Ik heb maar een laptopje. Wel met een npu van amd. Maar ik heb nog niet gevonden hoe ik dit in kan zetten op linux
Ja dan wordt het denk ik lastig. Zo'n model is toch snel 12 a 16GB wat je wel voornamelijk in je VRAM wilt hebben...
Ik gebruik zelf steeds vaker gpt-oss, werkt net iets rapper op mijn 16GB beeldkaart.
Het maakt echt niet uit
Hoe veel stroom ik dan verbruik
Sneller is beter

[Reactie gewijzigd door Nyarlathotep op 15 oktober 2025 23:30]

Wel jammer dat hij via de API een prijsverhoging van 25% heeft gekregen ten opzichte van Haiku 3.5. En die was al fors duurder dan Haiku 3.

Het zou eigenlijk wel fijn zijn als ze een model maken dat wel bijgewerkt is qua trainingsdata, maar wel klein/snel is. Een beetje een GPT 5 Nano concurrent dus. Die voldoet vaak prima voor taken als documentatie samenvatten/interpreteren, maar zeker in de IT is toch recente trainingsdata dan soms nog wel nuttig.
Ook direct in Kagi beschikbaar!
Dit is redelijk simpel maar binnenkort ook voor de grote gamestudio's?

Cyberpunk 2 !! Hadden ze bij GTA moeten hebben, meer dan 10 jaar verder nu.

Edit 13 jaar

[Reactie gewijzigd door Opteronx4 op 16 oktober 2025 12:12]

Met het €20 abbonement van anthropic liep ik zeer regelmatig tegen de limieten aan.

Ze hebben in oktober de 5 uur limieten en wekelijkse limieten strakker gezet, voor wat open source werk was ik dan na 1-2 uur op de limiet en met 2 dagen op het week limiet.

Ondertussen ben ik over naar GitHub copilot + copilot cli. Dan heb je hetzelfde model met een maandelijks limiet. De kwaliteit is iets lager, waarschijnlijk omdat Claude 4.5 is getraind met de tool omschrijvingen van Claude code, maar het scheelt niet veel.

Ik denk dat het €10 abonnement van github ongeveer gelijk loopt met het €100 abonnement van anthropic.


Om te kunnen reageren moet je ingelogd zijn