Baidu komt met Ernie 4.0 Turbo; Chinees taalmodel heeft 300 miljoen gebruikers

De Chinese techgigant Baidu heeft een nieuwe versie van zijn multimodale AI-model Ernie geïntroduceerd: Ernie 4.0 Turbo. Baidu claimt dat Ernie sinds zijn introductie in 2023 al op 300 miljoen gebruikers kon rekenen.

Persagentschap Reuters schrijft dat Ernie 4.0 Turbo als de opvolger van Ernie 4 moet gelden. Dit taalmodel was in oktober van 2023 geïntroduceerd en kon volgens Baidu toen vergelijkbare prestaties als GPT-4 van OpenAI aan de dag leggen. Het is niet duidelijk hoe goed de prestaties van Ernie 4.0 Turbo zijn, in vergelijking met de populairste taalmodellen in het Westen.

Baidu claimt dat de Ernie Bot sinds zijn introductie in 2023 al 300 miljoen gebruikers heeft gehad. Het is echter niet duidelijk op hoeveel maandelijks actieve gebruikers de chatbot momenteel kan rekenen. Het Chinese bedrijf biedt ook een platform voor ontwikkelaars aan en daar zouden 14,65 miljoen ontwikkelaars en 370.000 organisaties van gebruikmaken.

Baidu heeft in maart van 2023 de Ernie Bot geïntroduceerd: een generatieve-AI-chatbot die als Chinees alternatief moet dienen voor westerse multimodale chatbots. Bij de initiële presentatie werd duidelijk dat Ernie kan helpen bij het schrijven van teksten, het oplossen van wiskundige puzzels en het genereren van afbeeldingen.

Door Jay Stout

Redacteur

28-06-2024 • 18:56

20

Reacties (20)

Sorteer op:

Weergave:

Wat veel interessanter is voor ons in Europa: Vandaag is Google's gemma2 ook uitgekomen voor ollama: https://ollama.com/library/gemma2

Dus kan je dat ook zelf thuis draaien. Aan een Chinees model heb ik natuurlijk niks (net zoals qwen2 ook).

Ik vind het vooral handiger als tegenhanger van llama3. Het heeft interessantere groottes, 9b en 27b. Llama3 heeft alleen 8b en dan meteen 70b wat veel te groot is voor een normale videokaart.

[Reactie gewijzigd door Llopigat op 22 juli 2024 23:09]

Misschien is het een stomme vraag.. waarom gebruikt China dergelijke oplossingen niet? Ik begrijp dat ze het zelf willen kunnen ontwikkelen maar als dat niet lukt da zijn voorgetrainde modellen toch the next best thing?
Twee redenen:

Ten eerste: het gaat om taalmodellen. Een model dat is getraind in het Engels heb je in het Chinees geen bal aan. Zelfs het Nederlands is redelijk brak met llama3-8b, als je een vraag stelt in het Nederlands krijg je vaak Engels antwoord. Voor mij geen probleem. De 70b is ongetwijfeld beter maar kan ik hier niet draaien.

Ten tweede: De Chinese overheid heeft zeer lange tenen en de westerse modellen houden daar geen rekening mee. Vraag naar Oeigoeren enz en je krijgt gewoon antwoord. De Chinese overheid verbiedt het ook om dat AI tools aan te bieden als je niet kan garanderen dat dat niet gebeurt. Dit is ook precies het probleem dat ik zie met "Responsible AI". Iedereen heeft zijn eigen normen en waarden. Een die van bijvoorbeeld OpenAI zijn wel erg beperkend. Ik zou zelf liever gewoon een ongecensureerde AI zien en die gewoon met een korrel zout nemen, of dat je zelf in kan stellen wat je wel en niet acceptabel vindt. Er zijn wel modellen die achteraf ongecensureerd worden maar die werken niet zo geweldig.

Er zijn wel Chinese modellen die speciaal voor die markt zijn ontwikkeld zoals deze ernie en qwen2.

[Reactie gewijzigd door Llopigat op 22 juli 2024 23:09]

Wereld zo woke dat zelfs een computer op zijn taal moet letten. :+
De Chinezen zijn tenminste verder met AI dan Europa.

Slimme Nederlanders gaan voor Google of OpenAI werken. Slimme Chinezen worden gestimuleerd om thuis te blijven.
"Westers" betekent daarmee steeds meer "filiaal van Amerika".
Je gaf net aan dat slimme Nederlanders de tools van Google en OpenAI maken. Dat klinkt als of westers in Amerika dan eigenlijk gewoon Hollands is. ;)
Qwen2 7B is Apache 2 en is heel triviaal lokaal te draaien, een van de beste modellen van zijn grootte zelfs.

Het is heus niet alsof een Chinees model enkel Chinees kan.
Dat is waar, er zit ook Engels in maar je besteedt natuurlijk een groot deel van de parameters van het model aan een taal die je niet gebruikt en die ook grammaticaal niet overeenkomt met de westerse.

En veel westerse modellen zijn ook prima lokaal te draaien zoals llama3, phi3, gemma2, mistral, aya..

[Reactie gewijzigd door Llopigat op 22 juli 2024 23:09]

deepseek-coder-v2 werkt voor mij nog het best van de kleine modellen die je thuis kan draaien. Hij is wel erg gecensureerd.
Oh ja jammer. Ik heb een hekel aan gecensureerde modellen. Helaas zijn de ongecensureerde (bijv. dolphin-llama3 of llama-gradient) niet zo goed als het origineel, kennelijk heeft de manier van decensureren toch invloed op het geheel.

Maar je gebruikt het met name voor coding neem ik aan dan? Dat doe ik zelf niet zoveel. Deepseek coder is net uit dus ik heb het juist om die reden nog niet echt geprobeerd, omdat ik dat niet zo veel doe.
Gewoon voor logisch redeneren etc werkt hij beter dan de andere modellen die ik heb geprobeerd. Heel af en toe gaat hij wel over in chinees.
Bij de initiële presentatie werd ook duidelijk dat Ernie voorgeprogrammeerd was met de antwoorden. Nu heb ik zelf een klein IT team in China en is AI ook bij ons regelmatig iets waar we ons mee bezig houden. Ernie kan.. helemaal niks, het is niet slecht maar totaal onbruikbaar. Het probleem zit erin dat veel data helaas niet direct beschikbaar is in China en daarmee ook veel trainingsmateriaal voor LLMs hier niet. Daar komt bovenop dat veel lokale data gecensureerd is wat tot op heden voor lokale ontwikkelaars een onoverkomelijke hindernis is tenzij ze gebruik maken van buitenlandse modellen die meer en meer afgesloten worden. Ik vermoed dat op hoog niveau china niet stil zit, maar voor "ons" is AI bedroevend behalve wat we zelf weten op te tuigen.
Best interessant in China hoe LLMs zich daar gaan ontwikkelen. Meeste succes waarschijnlijk als je een overeenkomst aangaat met Douyin of Xiaohongshu om daar data te scrapen (ook lastig omdat dat natuurlijk heel veel video is). Tencent zal met alle Weixin data ook wel een goudmijn hebben.
Met zelf optuigen moet je daar ook oppassen want dat mag eigenlijk ook niet want wee je gebeente dat jouw AI iets slechts over de CCP zegt :') Ze zijn daar erg streng op.

Bij ons weigeren we daarom alle Chinese gebruikers toegang tot alle westerse AI ontwikkelingen zoals MS CoPilot. Leidt tot veel geklaag maargoed, daarvoor moeten ze niet bij ons wezen maar bij hun grote leiders.

[Reactie gewijzigd door Llopigat op 22 juli 2024 23:09]

Mopje van GPT:

Ernie: "Hé Bert, wist je dat Bard en Ernie vrienden zijn?"

Bert: "Oh ja? Wat doen ze dan samen?"

Ernie: "Nou, Bard vertelt de verhalen en Ernie doet alsof hij ze begrijpt!"

Bert: "Haha, dat klinkt net als ons, Ernie! Maar vertel, wat gebeurt er als Bard een mop vertelt?"

Ernie: "Dan lacht Ernie en vraagt hij zich af waarom mensen humor zo ingewikkeld maken!"

Bert: "Het lijkt erop dat AI's nog wat moeten leren over menselijke grappen!"

Ernie: "Inderdaad, Bert. Maar hé, zolang ze ons niet vervangen in Sesamstraat, komt het wel goed!"
offtopic:
Zeg Ernie? Ja Bert? Warom staat er een leeg pak melk in de koelkast?

Nou Bert, omdat het pak melk geen inhoud meer heeft, kan deze dus al leeg worden beschouwd, ook wel zonder inhoud. Leegte kan ook een verwijzing zijn naar Friedrich Wilhelm Nietzsche, die....
Ja Ernie, hou maar weer op...
Ghehehe, Sorry Bert, je had specifieker met je prompt moeten zijn!
---
Sorry, ik weet het, ik probeerde me echt in te houden, maar ik kon het niet laten _O-
Waar komt die Bernie in de tekst vandaan?
Gemiddeld dus 20 gebruikers per ontwikkelaar.

Op dit item kan niet meer gereageerd worden.