Alibaba brengt AI-model Qwen2.5-Max uit, dat strijd moet aangaan met DeepSeek V3

De Chinese techgigant heeft Qwen2.5-Max uitgebracht, zijn krachtigste AI-model tot nu toe. De Max-variant van Qwen 2.5 scoort volgens het bedrijf hoger op benchmarks voor AI-modellen dan concurrenten als GPT-4o van OpenAI en V3 van DeepSeek.

Het gaat om een regulier AI-model en dus niet om een redeneermodel zoals OpenAI o1 of DeepSeek R1, meldt Alibaba. In plaats daarvan vergelijkt het bedrijf het model met GPT-4o, DeepSeek V3 en Claude 3.5 Sonnet. Het model is beschikbaar via Alibaba Cloud en te benaderen via een eigen chatplatform van het bedrijf. In tegenstelling tot andere Qwen-modellen is 2.5-Max niet opensource beschikbaar op platforms zoals HuggingFace.

De pretraining werd uitgevoerd op 20 biljoen tokens en het model maakt gebruik van een mixture-of-expertssysteem. Verschillende 'onderdelen' van het model beantwoorden daarbij diverse prompts om het behapbaar te houden, aangestuurd door een 'router' die de taken verdeelt. Het finetunen gebeurde onder meer met reinforcement learning from human feedback, zoals andere bedrijven hun AI-modellen trainen. Daarbij geven mensen aan of output oké is of niet.

Qwen2.5-Max
Qwen2.5-Max

Door Arnoud Wokke

Redacteur Tweakers

29-01-2025 • 10:48

56

Submitter: wildhagen

Reacties (56)

56
56
24
2
0
25
Wijzig sortering
Mooie tijden, naar verluid staat Grok 3 ook op het punt van uitkomen.
Ja alle AI ontwikkelingen vind je mooie tijden? Ik vind het doodeng. En ik voel me meer dan gemiddeld op de hoogte van AI.
Ik vind het doodeng.
Er is niks mis met die AI modelen. Het probleem zit hem wat de bedrijven erachter willen uithalen ermee. Zoals Microsoft dat CoPilot bij default actief zet in Office, en je data dat je schrijft in word, excel enz documenten kan lezen/trainen. Nu DAT is schrikwekkend. Dat is net hetzelfde als die Recall feature waar ze om de 3 seconden een foto nemen van je desktop en dan OCR toepassen om te zien wat je doet/ziet/schrijft.

Gisteren nog een gesprek gezien tussen een Advocaat en MS Hoge piet, waar de Advocaat vroeger om een garantie dat bij Office for Business, dat GEEN data gebruikt word door MS in het trainen enz. Want Office for Business laat nog altijd toe dat data gebruikt word om te training in een bedrijf structuur.

Probleem is, dat een advocaat enorm strenge regels heeft over privacy van de cliënten, en als data getrainde word/gedeeld over het bedrijf, is het risico dat iets privé van 1 klant, via CoPilot in een andere Advocaat zijn document komt. Geef je dit document af in de rechtbank en ... het social security nummer is van een andere klant (gewoon dom voorbeeld), dan kunnen beide advocaten van hun licentie verwijderd worden.

De advocaat werd constant van de MS vertegenwoordiger gaslight, en wou maar niet antwoorden over die garantie dat zoiets niet kan gebeuren (en hij werd na een tijd beu). Nu dat is schrikwekkend...

Dit is een samenvatting van een andere advocaat: YouTube: Microsoft Copilot Manager roasted, doesn't understand Confidentiality

AI is enorm handig, maar ik wil dit zo snel mogelijk puur lokaal draaien. Ik wil geen Recall, geen Office met CoPilot ingebouwd, enz. Ik wil zelf in control zijn over de AI en zeggen, "verbeter mij dit stukje text" door gewoon copy / past te doen via de chat. Wat ik soms zie bij programmeren, is hoeveel data over je workspace word gehaald. M.a.w, hoe sneller lokale AI dat je op je eigen GPU draait er komt, hoe sneller ik gewoon afstap van CoPilot for Github.

Het probleem zit hem echt op dat misbruikt, die verdoemde data geilheid van bedrijven, en dat pvd in betaalde producten!!! Je koopt Windows, leuk, Recall zit er nu in (nog niet actief maar dat is 1 update away), ja, zogezegd word dat niet naar MS gestuurd maar zoals we zien met het Office365 voorbeeld, uw data is geld. :o

Ik wil niet negatief zijn over AI. De modelen maken me veel meer productief, minder gezeik met herhalende taken, enz, het probleem is niet de modelen maar gewoon hoe bedrijven het proberen te pushen/implementeren voor hun eigen extra voordelen. En met Trump de volgende 4 jaar in de VS, zie ik geen regulatie, aka, 4+ jaar volop wilde west van daar uit (en wij zijn veel te afhankelijk van VS software).
Recall werkt alleen lokaal, het vereist een NPU en anders kan het niet draaien. Daarom is de ophef erover ook zo misplaatst.

De initiele ophef ging erover dat de lokale(!) beveiliging van de screenshots (in de beta-versie) niet heel goed beveiligd was. Het ging nooit naar de cloud. Het is opt-in en werkt dus überhaupt alleen als je een nieuwe PC koopt met sterke NPU.

Online AI is inderdaad een lastiger vraagstuk mbt datavergaring.
Recall werkt alleen lokaal
Ik zal hier effen een paar vraagteken bijplaatsen. Het werk op dit moment enkel lokaal. Wat verhinderd MS van "om uw ervaring te verbeteren, gebruiken we recall features wanneer u Edge, Office365, ...gebruikt". Aka, men kan aan die data, voor online "training", via hun andere diensten he.

Dat is wat veel mensen vergeten. Ik heb geen probleem met CoPilot voor VSC omdat ik enkel data geeft waarmee het mag werken. Maar een tijd geleden hebben ze de "gebruik Workgroup" toegevoegd. Ok, ik gebruik dat niet. Maar dan begon je op een bepaalde moment te zien "voor beter context, gebruiken uw Workgroup", en dat ding begon gans men Code te doorbladeren om dan een hoop code door te gaan sturen, dat "nodig is voor de context". Inc enkel bestanden met test omgeving passworden, pvd! Ik weet niet wat ze daar echt uitgehaald hebben, maar dat is me effen schrikken.

En ja, een "update" meneer ... Daarom dat ik zeg: zeg nooit, nooit, want de ervaring heeft ons al lang geleerd, wanneer ze denken dat ze ermee weg kunnen, worden die spullen achter je gat geactiveerd. En veel mensen zullen dat niet doorhebben.

Het is me schrikwekkend hoeveel MS probeert te integreren, lanswaar ze data volop kunnen buitensluizen. Zie men voorbeeld van de advocaten en office365... En hoe ze bijna letterlijk een advocaat weglachen (tot MS is een rechtszaak aan hun been krijgt, maar ja, dat duurt jaren). Zelfde probleem met andere platforms, ...

Hier is mijn vraag: Wie koopt al die data? Ik bedoel, wie is de eindkoper, want als je Miljarden kan betalen aan Facebook voor hun data, laat staat de 1000de andere platforms dat overleven op meer hun dataverkoop dan advertencies, wie koop dat allemaal. Bij alle firma waar ik werkte, werd er geen byte aan data of statistieke gekocht.
Het is opt-in en werkt dus überhaupt alleen als je een nieuwe PC koopt met sterke NPU.
Het was overigens niet opt-in. Het was opt-out. Dat gezegd hebbende ben ik het ook wel met je eens dat de ophef om Recall in mijn ogen ook wat overdreven was.
Ik ben dokter. Hoe moet ik nu met Microsoft producten omgaan?
Anoniem: 76058 @HDoc30 januari 2025 13:38
Ik ben dokter. Hoe moet ik nu met Microsoft producten omgaan?
Blijf weg van Office365, en de nieuw versies van Office. Andere online Office software om ook van weg te blijven is Google Docs.

Als je echt Office moet gebruiken, blijf de oudere versies van een paar jaar geleden gebruiken. Die versies waar geen AI (Copilot) inzit en dan niet auto updaten naar een nieuwer versie. Persoonlijk gebruik ik nog altijd Office van 2007. Geen Telemetrie, geen AI, ...

Alternatief is de open source (en gratis) LibreOffice, wat deze dagen enorme goed compatible is met MS bestanden.

Jammer genoeg van een privacy point of view, voor mensen zoals doctors, advocaten, notaries (en iedereen), word de drang voor informatie vanuit die grote mega bedrijven zo groot, dat men via alle software probeert om meer en meer info te geraken, ongeacht de gevolgen dat kan hebben voor mensen hun beroep.

Je zal vaak horen dat ze die informatie veilig zullen houden maar als ITer zie ik gewoon dagelijks hoe grote bedrijven (en overheden) gehackt worden, en data gekopieerd word. En dat is het probleem. Data kan je zo snel kopiëren, en eenmaal dat het buiten is, is het nooit terug haalbaar.
Laat dit over aan uw IT personeel. Het zou jammer zijn uw kennis en talent te moeten gebruiken om met IT bezig te zijn...
Dank voor het meedenken. Het enige is, als dokter ben je eindverantwoordelijk voor elke individuele patiënt. En ook voor alles wat daar mee samenhangt. Daarom zijn de meeste dokters ook eigen baas, om in ieder geval ook uitvoering te kunnen geven aan die verantwoordelijkheid.

Zelfs als ik een patiënt naar een ander ziekenhuis verwijs voor een bepaalde behandeling, vindt de Inspectie dat ik op de hoogte moet zijn van de succespercentages in dat ziekenhuis en ben ik deels verantwoordelijk voor wat ze daar uitvoeren :|

Thuis werk ik overigens al lang met FOSS/LibreOffice, nu het ziekenhuis nog :Y)
Beide denk ik. Gebruik het deels als slimmere zoekmachine, dat werkt best heel goed. Gevaar is wel dat we doorschieten en ons hele leven er door laten bepalen. Er gaat denk ik ook wel ergens een plafond komen omdat iedereen de waarde van de data in gaat zien en beschermen en er steeds meer data bij komt die alleen door LLM's is gegenereerd.
Zolang ze het niet inzetten om "pedofilie/witwassen" aan te pakken, dan vind ik het nog meevallen
Heel goed ik denk er ook zo over, meer strijd. Meer innovatie.
Ondertussen bestaat het sterke vermoeden dat DeepSeek is getraind met data van ChatGPT. Daardoor schijnt het zo'n snel opgekomen en relatief goed werkende AI-applicatie zijn. Hoe het precies zit, zal hopelijk binnenkort wel duidelijk worden.

Elders onder ander AI-nieuws op Tweakers werd in de reacties gesuggereerd dat commercieel beschikbare taalmodellen op relatief korte termijn alleen elkaars data gebruiken, waar heel weinig echt nieuwe input meer bij zal komen. Of het dan nog toegevoegde waarde heeft..?
Pot verwijt de ketel. OpenAi is net zo, al dat niet erger, in het misbruiken van data. Heb wel eens gelezen dat ze ongeveer door alle bronnen heen zijn. Ze zijn gewoon heel zuur omdat ze de plank in het gezicht hebben gekregen.
Dat zit toch anders hoor. Natuurlijk is het schimmig, maar openai koopt hun data in en heeft wel degelijk met wetgeving te maken. Deepseek steelt deze data dus mogelijk.
Dat je data geld waard is en mensen vaak zat niet in de gaten hebben wat ze weggeven maakt niet dat Chinezen dit zomaar mogelijk stelen van andere bedrijven.
openai koopt hun data in en heeft wel degelijk met wetgeving te maken
Hoezo? Alle vroege LLM-makers waaronder OpenAI hebben eerst het open internet gratis gebruikt als trainingsmateriaal, inclusief alles dat auteursrecht heeft én teksten die persoonlijke gegevens bevatten van burgers. Daarnaast ging het om academische bronnen die niet voor commercieel gebruik waren, en content van internetpiraten zoals die grote onofficiële boeken-verzamelingen. Dit deugde allemaal lang niet, maar is gebeurd omdat de AI-industrie er mee weg kon komen. Regulering en justitie zijn traag en kunnen al dat investeerdersgeld toch niet goed bevechten.

Daarna zijn er hier en daar deals gemaakt over betaalde content, en is OpenAI begonnen met het respecteren van robots.txt. Dat begon pas toen de druk iets hoger werd, o.a. vanuit de mediabedrijven die het nieuws schrijven, en ook social media. Oftewel de contentmakers wilden geld zien. Maar zeer waarschijnlijk wordt er zelfs nu nog data zomaar ingenomen van platformen waar geen deal mee is.

Vervolgens zijn latere LLM-makers waaronder DeepSeek aan de slag gegaan met de output van eerdere modellen. Indirect gebruiken die dus ook data zonder toestemming en overtreden ook zij privacy- en andere wetgeving.

Er is net genoeg gedaan om deels te indruk te wekken dat deze LLM-makers nu netjes en zorgvuldig werken. Maar ik geloof er geen ene donder van en sowieso telt het verleden ook nog steeds mee.

Het is pure datahonger zonder respect voor mens of wetgeving. En als we de hele wereld nu zouden redden met deze LLM's dan was het misschien nog alle rommel waard. Maar het lijkt er eerder op dat het geheel gaat vastlopen en de kwaliteit maar amper meer omhoog zal gaan in deze fase. Ook DeepSeek V3 is overmatig gehypet en maakt nog steeds zat fouten. Het is geen echte generatiestap, maar gewoon verdere hysterie en hype.

[Reactie gewijzigd door geert1 op 29 januari 2025 14:03]

Naast dat het deels onderbuik is. Ze begonnen dus grijs of misschien ook over de grens en paste zich later aan. Dan nog hebben ze zelf geïnvesteerd in het vergaren van de data. Die investering wordt nu ook mogelijk gestolen door Deepseek.
Het zijn sowieso zaken die naast elkaar bestaan zoals hieronder ook opgemerkt. Maar two wrongs don't make a right. Het lijkt wel alsof je er mensen zijn die de westerse bedrijven tegenwoordig slecht vinden en daarom is al het Chinese werk prima. Slechte ontwikkeling.
Het zijn inderdaad "two wrongs": het internet opslokken was fout en het opslokken van de output van andere modellen is ook niet juist. Ik praat geen van beide goed.

OpenAI heeft uiteindelijk iets geïnvesteerd in content, maar niet vanaf het begin, lang niet volledig, en niet uit respect voor mens of wet. Dus daar krijgen ze wat mij betreft niet veel punten voor. Ook hebben ze de eerder verkregen resultaten niet in de prullenbak gegooid, dus al die gestolen data is nog steeds in gebruik. Dat er zoveel data beschikbaar en inzichtelijk is, was eigenlijk geen vrijbrief voor een massaal datasysteem om alles op te slokken. Auteursrecht en rechten omtrent persoonsgegevens zouden dit moeten voorkomen, in een ideale wereld. Maar in de praktijk gaat het gewoon wel zo.

China en DeepSeek zullen geen haar beter zijn. Al deze bedrijven willen goedkope of gratis data dat voor mensen bedoeld was, en ze willen er miljarden aan verdienen uiteindelijk. Als dat ooit gaat lukken natuurlijk, want tot nu toe kost het allemaal veel meer dan het oplevert.

Deze hele AI-fase is met name gebouwd op hysterie, angst, hype en roekeloosheid.
Ik geef je gelijk hoor, OpenAI heeft in deze kwestie natuurlijk gewoon boter op z'n hoofd ;)
Los van de data dat mogelijkheid gedeeltelijk gescraped is, is hun open source methodologie impressionant, ook dat het zo klein is en opensource.
Het is ongelofelijk hoe ze de cuda Cores omzeild hebben, dit heeft de training prestatie vertienvoudigd, de kans is heel groot dat alle anderen die zelfde techniek nu gaan toepassen of verbeteren. Dat is de reden dat NVIDIA andeel vandaag zo afzag, de voorziene bestelhoeveelheden zullen veel lager uitvallen, nu dat minder compute nodig is.
Ik geef hem helemaal niet gelijk, sterker nog, hij heeft 100% ongelijk. Hij post allerlei nergens op gestoelde aannames, het zogenaamde onderbuik gevoel. De conclusies gaan nergens over.

Sowieso is de wereld niet zwart/wit. Ik mag iemand aanspreken op gedrag, ook als ik ooit ook iets gedaan heb wat niet netjes was. Dingen bestaan naast elkaar en dat mag. Als je wat minder oordelend denkt, druk je je wat minder oordelend uit en wordt de wereld vanzelf mooier; vooral voor jou.

Neem mijn voorbeeld: ik spreek iemand aan op een mening vol onderbuikgevoel zonder feiten. Misplaatste mening posten zonder feiten heb ik vast ooit gedaan, maar toch mag ik het zeggen. Ik ben ook niet 'zuur'.

[Reactie gewijzigd door ABD op 29 januari 2025 13:29]

Haha, en iedereen klagen en mopperen en die Chinezen gaan gewoon door en jullie zijn straks allemaal jullie baan kwijt omdat iedereen nog aan het klagen en brand roepen waren in plaats van gewoon zelf een emmer te pakken en hard aan de toekomst te werken.

Europa gaat zoooo achter lopen met dit soort logica. Het is nu eenmaal weer het wilde westen en de eerste die AGI haalt wint. Zo simpel is het.
Ja, de onderbuik, het schavot uit de Middeleeuwen gaat je vooruit helpen in de strijd tegen je "vijanden".

Overigens zijn jullie je baan straks kwijt, wij zijn altijd nodig. Waarom jullie? Jullie missen b.v. de nuance uit dit artikel, namelijk dat Chinees bedrijf A een AI model heeft uitgebracht dat krachtiger zou zijn dan het model van Chinees bedrijf D, het Amerikaans bedrijf C en het Amerikaans bedrijf A. Jullie zijn vooral goed in elkaar overschreeuwen en wijzen naar anderen. Daar heeft niemand wat aan. Daarom zullen migranten jullie baantjes waarschijnlijk overnemen.

[Reactie gewijzigd door ABD op 29 januari 2025 18:13]

Trouwens al die 'Amerikaanse' bedrijven zitten ook gewoon vol met Chinezen.

Kijk voor de grap maar eens naar de namen op al die research papers
Misschien moet jij je eens verdiepen in de techniek. “AGI” is nog veel meer een marketing term dan “AI”. De hele “arms-race” is er alleen om nog meer geld te trekken uit onwetende investeerders.

Het hele ding dat Deepseek heeft laten zien is dat je geen miljarden nodig hebt om dit soort dingen te doen. Zolang je maar efficient werkt. Waar de beperkende factor eerst voornamelijk geld was. Nu is het weer de techniek, de wiskunde.

Je kunt er nog 1000x zoveel data tegenaan gooien met marginale winst. Maar die 1000x data is er ook niet eens.
Wat een onwetendheid weer. Hou dit bericht maar vast en zie over een paar jaar maar weer :D
Het ligt vast aan mij maar ik snap de hele context van je reactie niet. Wie is “hem”, wie en waar spreek je iemand aan? :?
Dit inderdaad.
Bedrijven als META, en ik heb geen enkele aanleiding om OpenAI van hoger moreel inzicht te beschuldigen, gebruiken rustig Russische torrents zoals 'The Library Genesis' om hun LLM's te trainen.
En noemen dat dan quasi-neutraal, 'de LibGen dataset'.

Maar oooooh!, stel je voor dat Chinezen het jatwerk zouden jatten!
Dat kan toch niet de bedoeling zijn?

[Reactie gewijzigd door Baserk op 29 januari 2025 15:12]

Nou ja het kopieeren en gebruik maken van data is eigenlijk toch de hele essentie van AI. Voor de ontwikkeling van AI zou het in ieder geval goed zijn dat de concurrenten elkaars werk kopieren en verbeteren.
Ondertussen bestaat het sterke vermoeden dat DeepSeek is getraind met data van ChatGPT.
Op zich is dat ook nog impressive. Er was een moment dat men opperde dat we content self-poluation zouden kunnen gaan veroorzaken, als we AI gebruiken om andere AI te trainen. (Degradatie van data kwaliteit.)

Als het waar is dat chatgpt gebruikt is, dan toont dit model dat het niet altijd waar zou zijn. Een AI zou dan wel effectief van een andere AI kunnen leren en zelf beter worden.
'data van openAI', is dat niet data van ons allemaal die openai zonder toestemming van de de nietsvermoedende internetgebruiker gestolen heeft?
Ik ben reuzebenieuwd naar de traditionele hapjes voor een kringverjaardag uit het screenshot :D
Alleen is geitje offline gehaald na een dwangsom van BREIN
Nee Geitje is offline gehaald omdat ze geen geld hebben om zicht te verdedigen tegen de zeer twijfelachtige claim van Brein.
Na een 'verzoek' van ze hebben ze het maar offline gehaald.
nieuws: Ontwikkelaar haalt taalmodel GEITje offline na verzoek Stichting Brei...
Poe ben benieuwd waar dit heen gaat. Veel ontwikkelingen in China de afgelopen 15 jaar in de IT hoek. M.b.t. het gegenereerde bericht door Qwen zelf: ik vind 32k echt geen grote contextlengte. Daar loop ik regelmatig mee tegen de limiet aan.
deze comment vind ik leuk, hoop dat je doelde op poe.com waar verschillende AI bots opstaan. :P
Ik ben wel (voorzichtig) optimistisch over de ontwikkelingen.
Ik heb Deep Seek uitgeprobeerd en die valt me zeker niet tegen. Resultaat doet tot nu toe niet onder aan Chat GTP. Ja natuurlijk merk je dat het geen antwoorden wil geven over bepaalde politiek gevoelige onderwerpen, maar ik bedoel nu even hoe het technisch functioneerd, niet de censuur die het toepast. Overigens, ik vind tot nu toe wel dat Deep Seek er eerlijk over is. Een andere kanttekening: Ook ChatGTP vindt bepaalde onderwerpen ingewikkeld omdat ze gevoelig liggen, zij het dat de lat wat lager ligt.

Anyway, ik vind Deep Seek indrukwekkend en technisch ook een goede ontwikkeling als het met veel minder middelen (en ik neem voor het gemak ook minder stroomgebruik?) dit voor elkaar krijgt. Prima als er meer spelers op de markt komen. Hopelijk dat het de ontwikkeling vooruit helpt zodat het beter en ook zuiniger wordt. En zoals de wereld nu in elkaar steekt ben ik er ook niet enthausiast op als de hele AI toestand exclusief in de Amerikaanse tech sector afspeelt. Dus laat de ontwikkelingen maar lekker verspreid zijn. Zou ook leuk zijn als er nog eentje bij komt vanuit Europa (of een ander continent). En dat is wel het positieve van die Chinese ontwikkeling: De lat om zoiets te maken ligt nu wel lager.
Ik heb toevallig net zitten testen hoe ChatGPT o1 omgaat met bijvoorbeeld kritiek op Trump en Musk. Daar geeft het zelf aan:
AI-systemen zijn getraind om niet bevooroordeeld te zijn voor of tegen politieke figuren. In de praktijk kan het toch voorkomen dat gebruikers het gevoel hebben dat er een bepaalde “politieke bias” is, maar dat heeft meestal te maken met:

De data waarop het model is getraind (online content kan bepaalde vooroordelen bevatten);
Interne mechanismen die proberen extremen of polemische uitlatingen te temperen.
en
AI-modellen (zoals ChatGPT) kunnen die kritiek ook weergeven of samenvatten, zolang het binnen de richtlijnen blijft (bijvoorbeeld geen haatzaaiende of lasterlijke taal). Het is dus niet zo dat “kritiek op Trump” helemaal wordt tegengehouden; AI probeert echter wel zorgvuldig te formuleren en feitelijk te blijven.
Ik heb sterk het gevoel dat de richtlijnen dus wel degelijk bepaald worden door enkele individuen die wellicht niet het beste voor hebben met deze technologie/ samenleving.
Anyway, ik vind Deep Seek indrukwekkend en technisch ook een goede ontwikkeling als het met veel minder middelen (en ik neem voor het gemak ook minder stroomgebruik?) dit voor elkaar krijgt.
Met minder geavanceerde hardware. Nadat de performance van DeepSeek bekend werd, daalde de koers van nvidia.
DeepSeek is open source. De EU zou daar van moeten profiteren om niet afhankelijk te zijn van de vooral Amerikaanse modellen die voorop lopen op de EU initiatieven.
Wel grappig hoe snel de tijd veranderd. Vorige week (of misschien iets langer) had de kop toch echt strijd aangaan met ChatGPT vermeld... nu ben ik er (ondanks flinke interesse) nog niet ingedoken, maar is echt DeepSeek nu al de nummero uno? Gaat het werkelijk (en objectief) zo hard dat dit nu de referentie is?
En de volgende Chinees staat ook al te trappelen.

After DeepSeek R1, there's new OpenAI o1 level model from China that outperforms Claude Sonnet 3.5 & GPT-4o.

Meet Kimi 1.5 - Multimodal model with advanced Chain-of-thoughts reasoning and real-time web search.

And it's 100% FREE with unlimited chats. Let that sink in
Wat ik me afvraag is, wat is nou echt het voordeel aan lokaal een LLM zoals Qwen draaien? Oke, tuurlijk, je hebt meer controle over waar de data heen gaat, maar verder?
Finetune modellen. Ik gebruik zelf qwen2.5:32b om rekeningen om te zetten in een json en zo in de boekhouding te zetten. Dan dat werkt heel erg goed.
Ik zelf finetune niet. Maar je kunt wel finetune modellen downloaden die goed zijn in berekenen, programeren of juist voor RolePlay. Als je zelf wilt finetunen kun je gebruik maken van unsloth. Zo blijven de modellen kleinen maar zijn ze minder universeel.
Als het niet open source is heb ik sowieso al geen interesse.
Tsja, door het enkel te ontsluiten via api's, of zelf-hosting alleen onder strikte voorwaarden (tegen geld) toe te staan zit er een verdienmodel aan voor de ontwikkelaars. Zeker bij commerciële instellingen verwacht ik dat de topmodellen vaak afgeschermd zullen blijven zoals nu. Niettemin verwacht ik met het huidige ontwikkeltempo dat er binnen afzienbare tijd open-source modellen zijn die goed genoeg zijn voor veel taken, zeker als het op taalvaardigheid aankomt (teksten verbeteren en herschrijven, etc.).
Als ik nu op Youtube kijk dan is er een ware explosie ontstaan van filmpjes over Deepseek en wat er mogelijk is en hoe je van alles kan maken met ai.
Best interessant. AI is nu voor de gewone mens (gratis) beschikbaar gekomen en de creativiteit explodeert als ik sommige van die filmpje zie. Ik had geen hoge pet op van AI maar als ik zie wat men er allemaal mee doet gaat er plots een nieuwe wereld voor me open.

Op dit item kan niet meer gereageerd worden.