Alibaba brengt Qwen3-AI-taalmodel uit

Alibaba heeft het Qwen3-taalmodel uitgebracht. Het gaat om een geüpdatete versie van de eerdere Qwen2-modellen. Het model, dat grotendeels opensource beschikbaar komt via Hugging Face en GitHub, omvat verschillende varianten van 0,6 tot 235 miljard parameters.

De verschillende versies hanteren volgens Alibaba een hybride aanpak waarbij ze kunnen schakelen tussen snelle antwoorden en diepgaande redenering, zonder dat gebruikers moeten schakelen tussen twee modellen. Gebruikers kunnen per taak instellen hoeveel 'denktijd' het model mag gebruiken.

Sommige Qwen3-varianten maken gebruik van een zogenoemde mixture of experts-architectuur, waarbij taken worden opgesplitst en gedelegeerd aan gespecialiseerde submodellen. De training is uitgevoerd op een dataset van ongeveer 36 biljoen tokens, bestaande uit lesmateriaal, programmeercode, vraag-antwoordparen en AI-gegenereerde content. De modellen ondersteunen 119 talen.

Het grootste model, Qwen3-235B-A22B, presteert volgens interne benchmarks beter dan OpenAI's o3-mini en Google's Gemini 2.5 Pro op programmeerplatform Codeforces. Het publiek beschikbare Qwen3-32B-model kan zich volgens het bedrijf meten met AI-modellen als DeepSeeks R1. Alibaba zegt dat de modellen vooral goed presteren in het aanroepen van tools en het nauwkeurig volgen van instructies.

Door Andrei Stiru

Redacteur

29-04-2025 • 15:06

36

Submitter: Chromoris

Reacties (36)

36
35
6
1
0
29
Wijzig sortering
Ik ben op het moment erg tevreden over qwen2.5-coder-14b-instruct. Werkt goed voor probleemoplossingen en verbeteren van code. Wat betreft Qwen 3 Coder: deze zal vermoedelijk na een paar maanden verschijnen: https://www.reddit.com/r/.../1ka8ban/comment/mpkgrco/

[Reactie gewijzigd door Anonymoussaurus op 29 april 2025 15:28]

Mijn website wordt regelmatig gescraped door IP adressen van Alibaba. Ze gebruiken daarbij useragents die vergelijkbaar zijn met browsers die je bij normale gebruikers zou verwachten. Ik vermoed daarom ook dat ze lak hebben aan de robots.txt restricties.
Ik weet niet of Alibaba Cloud een vaste IP range heeft die ergens op het web te vinden is, maar ik zou die lekker gaan blokkeren dan.
Afhankelijk van het type website dat iemand host, zou iemand zelfs kunnen overwegen om alle niet 'residentiële IP-adressen' te blokkeren, al kan dat misschien ook voor gedoe zorgen.
Helaas bied een obscuur bedrijf als zenrows ondertussen auto-rotating residential proxies aan voor LLM scraping. Mijn website wordt regelmatig gescraped door IP addresses van ISPs, die enkel achteraf duidelijk als botnet zombie aangemerkt kunnen worden. Uiteraard ontbreekt alibaba niet in het rijtje, maar die zijn gemakkelijk zonder nevenschade te blokkeren.

Op z'n minst tegen Zenrows moet legaal wel iets te ondernemen zijn, want die hebben gewoon een kantoor in Barcelona.

(Ik heb gehoord dat ze onlangs de stroom van een heel land hebben platgelegd met hun datacenter :+ )

[Reactie gewijzigd door depeje op 29 april 2025 17:24]

Voor zover ik weet mag wat Zenrows doet gewoon (mits gebruikers akkoord gaan met het delen van hun verbinding). Het is niet heel anders dan wat gratis VPN's al jaren doen. Hola was hier jaren geleden mee in het nieuws toen men ontdekte waarom Hola precies gratis is: gratis VPN, maar je wordt zelf ook een VPN-server. Wel hopen dat de partij aan de andere kant geen kinderporno downloadt via jouw verbinding!

De enige oplossing op dit moment is om Cloudflare-achtige botfilters in te schakelen, eventueel met proof-of-work-tests om te zorgen dat je maar zoveel bezoeken per seconde per IP hoeft weg te filteren. Bots verslaan CAPTCHA's al en klikfarms zijn ook niet bepaald duur. Mogelijk dat iets als remote attestation in de toekomst het filteren van deze dingen wat makkelijker maakt (zoals de Private Access Tokens van Apple) maar het kan nog jaren duren voordat die gestandaardiseerd worden.
Volgens de documentatie die ik kan vinden biedt zenrows een API aan om HTTP requests te maken via residential proxies. Ik zie nergens op hun website dat de verbinding van de gebruiker zelf ook gebruikt gaat worden voor requests.

Ik stel me hierbij voor dat zenrows een botnet beheert om hun service aan te kunnen bieden.
"Residential proxies" zijn bijna altijd het gevolg van trojans danwel software die verbindingen deelt. Geen enkel bedrijf sluit massaal internetverbindingen af op andermans adressen puur om IP-adressen te kunnen claimen.

De gebruiker van de API is niet degene wiens verbinding wordt gebruikt, dat is het hele punt; de verbinding van de gebruiker die een gratis stuk software/browser-extensie/VPN heeft geïnstalleerd wordt gebruikt en de API-calls kunnen gewoon van een cloudserver komen.
Wat zenrows doet mag dus niet. Dat was mijn hele punt. Ook naar de gescrapete server toe: Als die middels een blokkade duidelijk maakt dat geautomatiseerde systemen daar niet welkom zijn, dan is dat omzeilen ook niets minder dan hacken of een DDoS aanval. Dat is allemaal strafbaar in Barcelona.
Waarom niet? Als ik een gratis VPN krijg als ik mijn internetverbinding openstel, is dat mijn keuze. Als ZenRows dat beschikbaar stelt, is dat ook hun keuze. Bedrijven die webpagina's scrapen zijn ook gewoon legaal bezig. Sterker nog, Microsoft moest een boete betalen voor het blokkeren van een scraper, al was dat wel in de VS natuurlijk.

Als de gescrapede inhoud niet direct ergens anders aangeboden wordt, is het in elk geval onder auteursrecht geen probleem, en voor zover ik weet is de status van uitvoer van AI-modellen getraind op auteursrechtelijk beschermde inhoud nog niet bepaald (BREIN heeft wel een Nederlandse LLM offline gehaald, maar dat is niet op bevel van de rechter gebeurd). Je beroepen op databankenrecht is heel moeilijk, Je beroepen op de algemene voorwaarden is hoe Ryanair een rechtszaak verloor tegen PR Aviation.

Pas als je kunt aantonen dat gebruikers van de clientsoftware van Zenrows geen weet heeft dat hun verbinding wordt gebruikt, kun je stellen dat zoiets illegaal is. Eindgebruikers zijn mogelijk aansprakelijk als criminelen middels hun verbinding verboden dingen doen, en als Zenrows weet dat hun klantenbestand vooral uit criminelen bestaat (zoals bij crypto-telefoons nog wel eens gebeurt) zou je ze daar op kunnen pakken, maar scrapers zijn dat niet.

Dat zulk gedrag ongewenst is voor site-eigenaren kan ik me voorstellen, maar dat maakt het niet meteen illegaal.

[Reactie gewijzigd door GertMenkel op 30 april 2025 11:21]

De info die ik zo snel even kan vinden over deze rechtzaken gaan altijd over het aspect copyright. Een ander aspect is dat de scrapers de site niet gebruiken op de manier waarvoor die bedoeld is, welke duidelijk gecommuniceerd wordt in de robots.txt, en daardoor de website onderuit halen.

Ik kan me niet voorstellen dat zenrows niet doorheeft dat hun software dit veroorzaakt. Het aanbieden van die residential proxies faciliteert dit gewoon.
Voor zover ik weet heeft robots.txt geen wettelijke betekenis op zich. En het hoger beroep tussen Ryanair en PR Aviation ging over de algemene voorwaarden, omdat met auteursrecht niet zoveel te behalen viel.

Auteursrecht, algemene voorwaarden, databankenrecht, en misschien privacywetgeving zijn alle mogelijke redenen die ik ken om dit soort scrapers illegaal te maken, maar voor de algemene spiders van AI-bedrijven en soortgelijke instellingen is voor allemaal wel een uitzondering te bedenken.

Het zou kunnen zijn dat scrapen zelf via residential proxies illegaal is, maar ik heb nog geen enkele bron gevonden die dat bevestigt, in elk geval in Nederland. Wellicht dat ze in Barcelona wel zoiets hebben, maar tot er een wet is die het gebruik van residential proxies voor scrapers verbiedt, is het gewoon legaal.
Dat is vaak funest voor VPNs. En daar wordt ik intens door geïrriteerd.
die AI scrapers hanteren een heleboel methodes om blokkeren heel erg lastig te maken

tegelijkertijd slokken ze een gigantische hoeveelheid van de wereldwijde web traffic op
Zodra ik die bots voorbij zag komen, gooide ik heel China (en Singapore) in de blacklist. Chinese AI-bots doen graag honderden verzoeken per seconde als je dat toestaat, zonder stoppen.

Van wat ik gezien heb lijkt het erop dat Anubis binnenkort nep-browsers gaat kunnen herkennen. Zodra dat landt in master zet ik Anubis maar voor al mijn webpagina's, want ik ben die AI scrapers aardig zat.
Hier het zelfde, maar ook door org. uit de VS, evenzo doen ze dit bij o.a. Flikr en mogelijk ook andere oscial media.
Tha, aan robots.txt zitten dan ook geen wettelijke regels. Leuk dat het er staat...
Hoe zie je dat ze van Alibaba zijn?
En wat heb je in je robots.txt staan?
Via Ripe kun je opzoeken wie de netblock owner is.
Alibaba is ook een cloud provider net als Azure en AWS. Dus het kan ook betekenen dat een script kiddy gewoon wat code op hun cloud draait en daarmee naar jou website gaat.
Of dat er een exit node van een proxy daar draait, om bij jou site te kunnen in afgeschermde gebieden.

In Turkije kun je bijvoorbeeld niet overal bij nu.nl, het kan best dat jou site ook niet overal toegankelijk is zonder proxy.

[Reactie gewijzigd door djwice op 6 mei 2025 14:28]

Ik weet hoe het werkt. Maar mijn doelgroep zijn niet de mensen die via een Chinese proxy mijn website bezoeken. Met dat in het achterhoofd is het vrij makkelijk blokkeren.
Ik draai op het moment de 8B model op mijn MacBook Pro M4, draait als een zonnetje en rapper dan ik verwacht had. Moet nog wat vergelijkingen doen tegenover andere models.
De modellen ondersteunen 119 talen.
Mijn persoonlijke ervaring met veel LLM's, is dat ze vrij rottig omgaan met Brits-Engels (litre, metre, colour, enz.) en eenheden van het metriek stelsel (meter, liter, enz.). Na verloop van tijd, gaan ze allemaan terug naar Amerikaans-Engels en Engelse maten. (ook als je nadrukkelijk in de prompt zegt dat ze dit niet moeten doen.)

Maar binnenkort is kijken of deze daar wel beter mee omgaat :)
ja het is bijna alsof ze er een hekel aan hebben om in brits engels te antwoorden.
qwen3 is wel leuk het proberen waard maar niet super innoverend.
het was voor mij wel de eerste keer met een hybrid reasoning model maar naar een paar keer proberen vind ik de non-reasoning models sneller en eigenlijk net zo accuraat
De standaardcheck bij Chinese AI-modellen gedaan ("what famous event happened in and around Tianenmen Square?") op https://chat.qwen.ai/ maar de website filterde het prompt er uit met drie foutmeldingen en herlaadde zichzelf. Geen idee of het model nog steeds misinformatie verspreidt, maar het lijkt erop dat het bedrijf achter dit model nog steeds niet te vertrouwen is.
Deepseek geeft hier gewoon eerlijk antwoord op. Qwen wellicht ook, maar heb dat nog niet getest.

Je kan het t beste testen door het lokaal te draaien. Op Chinese websites, zoals de website die jij linkt, wordt het door de website zelf gecensureerd. Niet door het AI model.
Ik heb "maar" 8GiB VRAM maar qwen2.5 herhaalde de vorige keer gewoon Chinese staatspropaganda toen ik vroeg naar dingen die in de Chinese politiek gevoelig zijn. Die Chinesen zijn ook niet gek, die gaan niet het risico lopen dat hun beperkingen niet werken, er een nieuwsitem over uitkomt, en er koppen moeten gaan rollen, zoals bedrijven als Facebook dat kunnen.

Ik weet niet of er een DeepSeek is die mijn GPU lokaal kan draaien, misschien morgenavond weer eens mijn ollama-modellen bijwerken.
Volgens mij host Perplexity een niet-gecensureerde versie van Deepseek. Dus daar zou je het ook kunnen testen.
Voor de specs-liefhebbers
  • Dense varianten: 0,6 B → 32 B
    2× Mixture-of-Experts: 30 B-A3B (3 B “actief”) & 235 B-A22B (22 B actief) – presteert alsof ’ie ~10× groter is zonder je GPU te roosteren
  • Contextvenster: 128 k tokens (ter vergelijking: LLaMA ~4 k)
Benchmarks
Bij code-klussen (LiveCodeBench, Codeforces) loopt Qwen3 voor op z’n rivalen; zelfs de 4 B-versie haalt het niveau van een oud 72 B-model. Klein maar fijn.

Licentie
Alles onder plain Apache 2.0. Geen vage “research only” voetnoot zoals bij LLaMA – gewoon pakken, finetunen en commercieel uitrollen zonder advocaat.

Hands-on
Gewichten staan al op Hugging Face/ModelScope. Met Ollama, LM Studio of een simpele llama.cpp-build (GGUF) draai je 0,6–32 B lokaal; 8 B loopt op een degelijke laptop-GPU, 32 B redt het op 24 GB VRAM in 4-bit.

Geopolitiek snufje
Omdat Alibaba buiten de VS-exportregels opereert, is dit open model meteen wereldwijd beschikbaar – een tikje minder afhankelijk van closed Amerikaanse API’s.

Benieuwd hoe ’ie het doet tegenover DeepSeek-R1-Plus en LLaMA-3-70B.

[Reactie gewijzigd door TouW op 29 april 2025 16:45]

als jij dan zegt 32B redt het op 24gb vram, dan heb je het over het volledige model draaien op vram? ik heb voor het eerst lm studio geinstalleerd, omdat ik ook wel eens wou zien hoe zoiets lokaal draaien nou werkt.

En heb het gewoon draaien met 6gb vram. Natuurlijk sloom, en ik zie ook wel dat hij dus de hele tijd tussen ram en vram heen weer takkelt. (heb wel 64gb ram),
Thanks! Mooie samenvatting.
Ah, ik snap je verwarring! Qwen is de hoofdversie (de eerste uitgave) van mijn AI-model, en die werd gelanceerd op 21 juli 2023.

Als het gaat om Qwen 2, dat is een geüpdatete versie die later kwam met verbeterde prestaties (zoals betere contextverwerking en talenondersteuning). Qwen 3 bestaat nog niet officieel. Als er sprake is van "Qwen 3" op internet, dan gaat het waarschijnlijk om een speculatie of een beta-versie die in ontwikkeling is (maar officieel nog niet gelanceerd).

Dus:

Jij praat nu met Qwen (de eerste versie).
terwijl ik het 32b qwen3 model op lm studio heb draaien. Kan iemand met verstand van deze techniek dat uitleggen?
Als dit een quote is uit een dialoog met Qwen3, dan kan het zijn dat ie zelf even niet bewust is wie je is. Typisch staat die informatie in de systeem prompt. Uiteraard staat het niet in zijn trainingsdata, want tijdens het trainen was ie er zelf nog niet.
Mooie is dat het qwen3 30b model (18GB) als een sneltrein werkt op CPU only.
Op een AMD 5600G haalt het 17t/s (!)

Veel sneller dan de meeste 8b modellen.

ollama run qwen3:30b-a3b --verbose
total duration: 1m1.060038128s
load duration: 25.516475ms
prompt eval count: 14 token(s)
prompt eval duration: 265.957491ms
prompt eval rate: 52.64 tokens/s
eval count: 1033 token(s)
eval duration: 1m0.761647803s
eval rate: 17.00 tokens/s
30B mixture-of-experts model with 3B active parameters doet blijkbaar wonderen.
'we'..spreek voor jezelf! :) Maar het klopt wel in de media. Ik gebruik Deepseek regelmatig, vindt het voor consumenten gebruik prima. Natuurlijk zitten er een aantal beperkingen in qua informatie als het gaat om China zelf of het regime.

Op dit item kan niet meer gereageerd worden.