Software-update: OpenCode 1.1.17

OpenCode logoOpenCode is een opensource AI-codingagent voor Windows, Linux en macOS, die kan helpen met het schrijven van code in bijvoorbeeld een terminal, een IDE of op de desktop. Hiervoor kan het gebruikmaken van een groot aantal gratis, maar ook betaalde AI-modellen, waaronder Claude, OpenAI, Google of lokaal draaiende modellen. De software wordt actief ontwikkeld, alleen vandaag al zijn er drie verschillende versie uitgekomen. Kijk voor meer informatie in de documentatie. De changelog voor vandaag ziet er als volgt uit:

OpenCode version 1.1.17

Core
  • Remove the symlinkBinary function call that replaces the wrapper script
  • Fix Homebrew auto-upgrade functionality
TUI
  • Prevent question tool keybindings when dialog is open
Desktop
  • Kill existing OpenCode CLI processes on macOS when launching desktop app
  • Set serverPassword in desktop app
  • Provide PTY socket authentication if available from desktop
  • Tie desktop and CLI to the same Windows JobObject

OpenCode version 1.1.16

Core
  • Handle write errors when updating schema in OpenCode config
  • Ensure clear_thinking is disabled for zai model
  • Improved edit and write tool feedback to prevent confusion about whether changes were successfully applied
  • Prevent [object Object] error display in console output
  • Respect agent task permission for nested sub-agents
  • Fix max completion tokens error for Cloudflare provider
  • Use reasoningConfig for Anthropic models on Bedrock
  • Store API URL in session metadata
  • Add nova-2 to region prefix models
  • Tweak truncation directory permissions
  • Make environment file reads ask user for permission instead of blocking
  • Use Biome check instead of format to include import sorting
  • Ensure plurals are properly handled
TUI
  • Support debug tool calling directly in CLI
  • Don't submit prompt when switching sessions
  • Await auth.set to prevent race condition when setting API key
  • Actually modify OpenCode config when adding MCP servers with mcp add command
Desktop
  • Spawn local server with password in desktop app
  • Add missing args to Windows Tauri CLI spawn
  • Implement better dynamic terminal numbering
  • Add icon button for server removal in dialog select server

OpenCode version 1.1.15

Core
  • Rename OPENCODE_PASSWORD to OPENCODE_SERVER_PASSWORD for clearer authentication configuration
  • Fix HTTP exception handling order to prevent NamedError from masking HTTP exceptions
  • Add password authentication and improve server security
  • Improve error handling for built-in plugin installation failures
  • Allow wildcard permissions to match both the command with and without arguments
  • Fix model selection in title generation to use user's model instead of assistant's
TUI
  • Prevent layout jump when toggling tips visibility in TUI
  • Add hint for variants toggle in TUI
  • Fix autocomplete reopening after backspace deletes space in terminal UI
  • Rename kvStore to store for consistency in TUI
  • Redesign tips display on home screen
  • Redesign tips display on home screen
  • Remove update complete toast notification from TUI
Desktop
  • Disable AppImage build
  • Improve server detection and connection logic in desktop application
  • Resolve defaultServerUrl inside AppInterface to improve server URL handling

OpenCode

Versienummer 1.1.17
Releasestatus Beta
Besturingssystemen Linux, macOS, Windows 10, Windows 11
Website OpenCode
Download https://opencode.ai/download
Licentietype GPL

Door Bart van Klaveren

Downloads en Best Buy Guide

13-01-2026 • 18:05

5

Submitter: Lohengrin

Bron: OpenCode

Update-historie

Reacties (5)

Sorteer op:

Weergave:

Nog geen ervaring met dit stukje software maar zie in het screenshot ook weer die infantiele aanmoedigingen van een LLM alsof ik op de middelbare school aan het programmeren ben. Dat is een reden waarom ik zelf hier nog erg weinig gebruik van maak.

Begreep dat ze dit in ChatGPT hadden teruggebracht naar een meer feitelijke reactie maar dat de gebruikers dit ervaarden als minder functioneel en dat ze het daarom hebben teruggedraaid. We hebben nog een weg te gaan.
Dat heeft niks met de tool te maken en kan je aanpassen met bv CLAUDE.md.
Ik zie steeds vaker dat dit gebruikt wordt voor vibe coding. Heeft iemand hier ervaring mee?

[Reactie gewijzigd door DLabs op 13 januari 2026 20:57]

Wat vindt je vibe coding? Ik heb het gebruikt om gewoon changes en refactorings te doen waar deze agent best wel goed uitkwam. Verre van perfect, maar voor mij is het nu gevoelsmatig net voorbij het kantelpunt waar het onderaan de streep tijd oplevert. Dat is best knap, ik was hier een halfjaar geleden nog zeer pessimistisch over.

Het verbaasde mij overigens zeer dat de 'gratis' modellen die je tot op heden mag gebruiken echt goed en gigantisch snel zijn. Dat in contrast met de langzame ervaring met een betaald gemini account en gebruik makende van gemini-cli.

[Reactie gewijzigd door DLGandalf op 13 januari 2026 21:39]

Normaliter gebruik ik Claude Code, want dat is volgens mij nog steeds een van de beste AI coding tools. Toevallig kwam ik OpenCode tegen, heb het geprobeerd en ben blij verrast met GLM-4.7 als model - super snel en vooralsnog gratis te gebruiken. Ben nog niet tegen een limiet aan gelopen.

Overigens kan je ook gebruikmaken van Ollama (om local LLMs te benutten) - beetje workaround maar zo lastig is het ook weer niet.
OpenCode can be configured to use local models through Ollama, enabling a fully self-contained development environment that runs entirely on a user's machine without requiring cloud services or API keys. This setup provides benefits such as complete privacy, no subscription costs, and offline capability. To integrate OpenCode with Ollama, users must install Ollama and OpenCode via npm, then configure the opencode.json file to point to the local Ollama server at http://127.0.0.1:11434/v1. The configuration file specifies the provider, model, and options such as context window size, with examples showing models like dolphin3:latest, qwen3-coder:30b, and gpt-oss:20b being used. For optimal performance, especially with tool calls, it is recommended to increase the num_ctx value to 16k–32k or higher. Ollama supports a variety of models, including specialized code models like Qwen3-coder and OpenCoder, which are designed for high performance in code-related tasks. Users can pull models using the ollama pull command and run the server with ollama serve to make them available to OpenCode. This local setup allows users to experiment with different models, customize their workflow, and maintain full control over their data and development process.

Om te kunnen reageren moet je ingelogd zijn