Mistral AI's chatbot Le Chat krijgt toegang tot nieuwsberichten persbureau AFP

Mistral AI heeft een overeenkomst bereikt met Agence France-Presse om de AI-assistent Le Chat nieuwsberichten te laten inkijken van het Franse persbureau. Op die manier kan de chatbot reageren op vragen van gebruikers met informatie uit nieuwsberichten van AFP.

In een persbericht schrijft het Mistral AI dat Le Chat uitgebreidere en accuratere antwoorden kan bieden door de integratie van AFP's content. Zo moeten antwoorden van de chatbot gebaseerd zijn op 'betrouwbare en up-to-date informatie'. De AFP-integratie moet in de loop van de komende weken beschikbaar zijn voor alle Le Chat-gebruikers.

Agence France-Presse is een van de grootste internationale persbureaus. Er zijn 1700 journalisten actief, die dagelijks 2300 nieuwsberichten publiceren in zes verschillende talen, waaronder Arabisch, Duits, Engels, Frans, Portugees en Spaans. Mistral AI krijgt toegang tot het volledige archief, dat teruggaat tot 1983. De meerjarige overeenkomst tussen AFP en de Franse AI-start-up heeft wel geen betrekking tot het beeldmateriaal van het persbureau.

Eerder deze week sloot Google een soortgelijke overeenkomst met persbureau Associated Press om realtime informatie naar Gemini te brengen. Daarnaast sloot OpenAI al meerdere overeenkomsten met nieuwsaanbieders, waaronder ook de AP.

Door Idriz Velghe

Redacteur

17-01-2025 • 15:00

21

Submitter: beelie

Lees meer

Reacties (21)

Sorteer op:

Weergave:

De kracht van AI wordt nog wel eens overschat. Lijkt mij erg goed deze voortgang. Echter wordt er natuurlijk veel misbruik gemaakt, en wie fact check AI? Want deze heeft niet altijd gelijk...
Dat zeg ik ook steeds.. Als AI troep gaat eten gaat ie binnen no time onzin uitkramen. En wat is dan geen troep? Euh.. dan denk ik aan wetenschappelijke rapporten en studies. En boven elke vorm van twijfel verheven nieuwsburo's. En gewoon alle cijfers die niet liegen. Zoals op worldometers.info wordt geprobeerd. Kortom, nog best lastig.
Zowat 99,99% van alle beschikbare content is onderhevig aan subjectiviteit. Zodra een persoon ermee gemoeid is, wordt de content bevooroordeeld. Zéker wanneer die persoon het tegendeel beweert.
Wetenschappelijk onderzoek is daar evenmin immuun voor, tenzij er rigoureus controle werd uitgevoerd door meerdere, onafhankelijke vakgenoten.
AI zal altijd een zekere vorm van oordeel in zich dragen. De vraag is enkel tot welke mate de mensheid bereid is om leugens te slikken.

En dan spreek ik enkel over menselijke bias, nog niet eens over algoritmische bias...

[Reactie gewijzigd door Liquid_Bisquit op 17 januari 2025 15:54]

Als de nieuwsberichten onderdeel zijn van de indexatie van de LLM, dan is het tegenwoordig een stuk eenvoudiger om hallucinatie te beperken.

Maar ik ben wel heel benieuwd wat er gebeurt als je een zeer lang gesprek voert en allerlei gebeurtenissen aan elkaar wil knopen, dat lijkt een interessante test case om te zien hoe stabiel de chatbot blijft.
Ik heb het idee dat het wel aardig op stoom begint te komen de laatste tijd.

Recente Joe Rogan podcast met Mark Zuckerberg had Zuckerberg het erover dat bedrijven als Meta, Google en OpenAI tegen het eind van dit jaar waarschijnlijk AI's hebben die kunnen programmeren op het niveau van een mid level engineer, ze zullen nog wel ongelofelijk duur zijn om te draaien en waarschijnlijk dus enkel nog inhouse gebruikt worden.

Dat moet je natuurlijk wel met een korreltje zout nemen want ze willen hun spulletjes natuurlijk altijd mooier laten lijken dan ze werkelijk zijn, maar het geeft denk ik wel een idee van waar het in de nabije toekomst zal staan.
Dit is wel superhandig inderdaad. En zeer goed te doen. Die AI kan dan zelf code in elkaar zetten en als ze het slim aanpakken, ook zelf testen op werking in een sandbox. Lijkt me prachtig om te zien gebeuren! :)
Grote korrel zout. Zeker als het om Meta gaat... :)
Joe Rogan podcast citeren is een beetje het nivo van wikipedia of huiswerk.nl gebruiken als bron.
Dan zetten we die AI's op het doorontwikkelen van AI en dan hebben we over een paar jaar superAI zonder ernaar om te kijken.
De kracht van AI wordt nog wel eens overschat. Lijkt mij erg goed deze voortgang. Echter wordt er natuurlijk veel misbruik gemaakt, en wie fact check AI? Want deze heeft niet altijd gelijk...
Ik denk niet zozeer dat de kracht word overschat, maar ook niet onderschat. Er is gewoon een ontzettend grote groep gebruikers die een oordeel over AI, en dan specifiek LLM's heeft, terwijl ze zichzelf niet hebben geleerd het te gebruiken.

Een LLM is een tool. Geen collega. Geen waarzegger. De betrouwbaarheid van de resultaten van de tool hangen af van twee factoren. De kwaliteit van het LLM, en de vaardigheden van de bediener.

Een vaardige gebruiker heeft geen last van bijvoorbeeld hallucinatie. Want een vaardige gebruiker heeft inmiddels al lang geleerd welk model je waar voor kan gebruiken, hoe groot het context window per model is enzovoorts.

De gemiddelde tweaker hier heeft het over "ai fact checken" "hallucinatie" enzovoorts.... Deze oordelen komen 100% uit gebrek aan vaardigheid van het bedienen van een LLM. Meestal is het slechts een paar uur ervaring. Hoe goed zal je kunnen auto rijden na een paar uur klungelen? Hoe goed kan je fietsen na een paar uur klungelen. Niet! Een LLM, en zeker als je bijvoorbeeld Claude Opus of GPT o1 gebruikt, is een ongekend krachtige tool in de handen van iemand die er mee heeft leren omgaan.
Ik vind wat je poneert niet correct. Een hallucinatie heeft niets te maken met de vaardigheden van de user, wel met de foute en/of subjectiviteit van de online content die een LLM gebruikt om een antwoord voor user te synthetiseren...
Je gebruikt net een LLM om een antwoord te krijgen op iets dat je nog niet wist, dus hoe en op basis van wat gaat een user dan de mogelijkheid hebben om de juistheid ervan te verifiëren? Gewoon niet dus, tenzij je als user beschikt over objectieve voorkennis.
Of objectieve nakennis.

Als je onderzoek doet klik je niet op de eerste Google hit en ga je ervan uit wat op die website staat voor 100% klopt. Dat doe je met een LLM ook niet. Het gaat je onderzoeksvraag niet direct voor je oplossen, maar het kan wel handige modellen en methodes geven en je op ideeën brengen. Al die zaken zijn achteraf prima te verifiëren.

Een LLM bedienen is een vaardigheid. Net als het gebruiken van een zoekmachine. Voor jou en mij is het misschien logisch om de juiste trefwoorden in te voeren, maar voor mijn ouders bijvoorbeeld niet.

[Reactie gewijzigd door Peoplen op 17 januari 2025 19:13]

Je gebruikt net een LLM om een antwoord te krijgen op iets dat je nog niet wist
Met deze veronderstelling organiseer je je eigen falen!

Ik gebruik LLM's ontzettend veel, de laatste 8 maanden heel intensief, toch wel gemiddeld 10 a 15 uur per week. En ik zal nagenoeg nooit een LLM gebruiken, zoals jij verondersteld. Waarom? Simpel, omdat een LLM daar niet zo nuttig is. Maar de duizenden andere toepassingen waar die wel nuttig is, daar is een LLM zeer goed en betrouwbaar in zijn gebruik. Simpel gezegd, je probeert een LLM te gebruiken voor iets waar die niet goed in is.

Mijn stelling is dat 99% van de tweakers LLM's onderschat omdat ze totaal niet snappen waar een LLM wel en niet nuttig te gebruiken is, en nooit de tijd er in hebben geïnvesteerd om te ontdekken voor welke use-cases een LLM nuttig en betrouwbaar in te zetten is.

Hallucineren van een LLM, zie ik als slippen van de banden van een auto, je gebruikt hem ofwel verkeerd, ofwel op het randje van zijn kunnen. Ik heb (sporadisch) ook wel dat er minder betrouwbare antwoorden uitkomen, maar dat heb ik alleen als ik bewust met een LLM naar het randje van zijn kunnen ga. Dit is vaak om voor mijzelf vast te stellen waar de grenzen liggen, en wat er wel of niet mee kan. Maar als ik gewoon met mijn dagelijkse werk bezig ben, waar ik precies weet wat ik met het LLM kan, heb ik 100% van de tijd voorspelbare en betrouwbare resultaten. Ik voer zelf altijd de informatie, en houd daarbij rekening met het context window van het LLM dat ik op dat moment gebruik. Ik heb 100% van de tijd betrouwbare nuttige resultaten omdat ik heb geleerd wat ik er mee kan doen. En met een LLM neemt mijn productiviteit tussen de 25% en 100% toe afhankelijk van de taak doe ik uitvoer.
ChatGPT heeft op meerdere simpele vragen bij mij compleet foute antwoorden gegeven. Ik vind een tool waarbij je alle antwoorden niet kan vertrouwen en moet factchecken errug onvolwassen en onhandig. Blij dat autos en fietsen dat nivo ontstegen zijn. Hoop dat AI de belofte beter waar gaat maken.
Dat klinkt als: "Ik stapte een auto in, ik heb alle knopjes geprobeerd en hij heeft mij nog steeds niet naar mijn bestemming gebracht".
Ja net zoals autorijden heb je serieuze vaardigheid nodig. Ik vermoed dat je het verkeerde model de verkeerde vraag hebt gesteld.
Ik garandeer je, dat het mij lukt om 100 taken achter elkaar aan ChatGPT te geven, en dat 99 van de antwoorden een betrouwbaar antwoord geven.
Heb je bijvoorbeeld wel eens een vraag aan o1 gesteld?

[Reactie gewijzigd door Emielio op 19 januari 2025 06:29]

Ik heb claude en chatgpt, beide de betaalde versie. En ja je kan een eind komen. Maar de gemaakte fouten zijn bedroevend en beschamend. En als er 1 van de 100 fout gaat bij je moet je ze dus allemaal checken. Ik zie prompten als een noodzakelijk kwaad. Stompzinnige pseudoscience omdat we met een technologie werken die nog in de kinderschoenen staat.
Bor Coördinator Frontpage Admins / FP Powermod @Emielio18 januari 2025 09:47
De gemiddelde tweaker hier heeft het over "ai fact checken" "hallucinatie" enzovoorts.... Deze oordelen komen 100% uit gebrek aan vaardigheid van het bedienen van een LLM.
Onzin. Dit zijn eigenschappen die bij AI horen mede doordat AI niet "begrijpt" wat het als output levert. Daar zitten meer dan eens onjuistheden tussen bijvoorbeeld.
Onzin. Dit zijn eigenschappen die bij AI horen mede doordat AI niet "begrijpt" wat het als output levert. Daar zitten meer dan eens onjuistheden tussen bijvoorbeeld.
De hoeveelheid onjuiste antwoorden hangen wel af van twee factoren: De kwaliteit van het LLM en de vaardigheid van de bediener. Ik gebruik het dagelijks, en als ik het voor taken gebruik waarvoor ik weet dat het geschikt is, heb ik minder dan 1 keer per 100 opdrachten dat het een onwenselijk/onbetrouwbaar antwoord geeft.

Een LLM hoeft niet te begrijpen, om hele bruikbare en betrouwbare antwoorden te geven. Dat hebben we nu inmiddels wel geleerd hoop ik, op het moment dat LLM's op dit moment met ultra hoogbegaafde mensen aan het vergelijken zijn.

De reacties hier gaan meestal niet verder dan, ik heb een paar simpele vragen gesteld aan ChatGPT en er kwamen foute antwoorden uit. Ze weten vaak nog niet eens welk model ze gevraagd hebben. En aangezien die mensen de gratis versie hebben, en alleen toegang hebben tot het gratis 4o, hebben ze ook totaal geen idee wat de echt nuttige o1 kan.
Ligt eraan hoe je het gebruikt.

Sommige dingen weet ik gewoon niet goed te verwoorden om een goeie Google search result te krijgen. Als ik het dan aan een LLM vraag krijg ik gelijk antwoord.

Dat antwoord typ ik dan vervolgens in Google in om het te fact checken als het ware. Gewoon om zekerheid te hebben.

Ik denk dat het een krachtige tool is als je het op bepaalde manieren gebruikt.
Dit. Een soort van moderatie op antwoorden. Wellicht moet er een soort van overkoepelende controle zijn of komen.
Hoe concurrerend is Mistral ten opzichte van andere partijen? Het is mooi om te lezen dat we een Europese tegenhanger hebben. Ik zou het stimuleren in de EU.

Vandaag iig gedownload om als LLM lokaal te gebruiken

Op dit item kan niet meer gereageerd worden.