Mozilla gaat aan 'betrouwbare' opensource-AI werken met nieuwe start-up

Mozilla richt een start-up op, genaamd Mozilla.ai. Hiermee wil het bedrijf gaan werken aan 'betrouwbare' en opensource-AI. Mozilla investeert 30 miljoen dollar in het initiatief, dat onder leiding van AI-onderzoeker Moez Draief komt te staan.

Mozilla kondigt de oprichting van Mozilla.ai aan in een blogpost en zegt te werken aan een 'ecosysteem' van betrouwbare en opensource-AI. Het bedrijf gaat daarvoor in eerste instantie 'tools maken die generatieve AI veiliger en transparanter maken'. Mozilla.ai zegt ook te werken aan 'mensgerichte aanbevelingssystemen die ons niet verkeerd informeren of ons welzijn ondermijnen'. De start-up deelt weinig tot geen concrete details, maar zegt in de komende maanden met meer informatie te komen.

De Mozilla Foundation investeert in eerste instantie 30 miljoen dollar in het nieuwe bedrijf. Moez Draief wordt de managing director van Mozilla.ai. Draief was eerder het hoofd van het AI-lab van Huawei en global chief scientist bij consultbedrijf Capgemini. Mozilla's executive director Mark Surman, Karim Lakhani van Harvard University en Navrina Singh van AI-bedrijf Credo worden de eerste bestuursleden.

Het volledige team bestaat in eerste instantie uit 25 engineers, wetenschappers en productmanagers, vertelt Mozilla in een interview met TechCrunch. Het bedrijf wil met dat team gaan werken aan betrouwbare aanbevelingssystemen en grote taalmodellen in de trant van GPT-4 van OpenAI. Op termijn wil de start-up echter een netwerk opbouwen van 'gelieerde bedrijven en onderzoeksgroepen die Mozilla's visie delen'.

Mozilla werkt al langer aan AI. Het bedrijf publiceerde in 2020 een whitepaper met zijn visie over betrouwbare AI-modellen. Mozilla heeft echter nog geen concrete producten op basis van AI uitgebracht. Nu AI in opmars is met modellen als OpenAI's GPT-4 en ChatGPT, Google Bard, Stable Diffusion en Dall-E, zegt Mozilla concreet te willen werken aan modellen die opener en transparanter zijn. "We vragen ons niet alleen af wat er mogelijk is en hoe mensen ervan kunnen profiteren. We vragen ons ook af wat er mis kan gaan en hoe we dat kunnen aanpakken", schrijft het bedrijf.

Mozilla.ai

Door Daan van Monsjou

Nieuwsredacteur

23-03-2023 • 08:33

94

Submitter: TheVivaldi

Lees meer

Reacties (94)

Sorteer op:

Weergave:

Ik ben een AI pessimist. Ik zie twee tegenstrijdige woorden in de titel: betrouwbaar en AI.

De rommel die ik tegenwoordig tegenkom op internet als je wat zoekt wordt steeds erger. Foute automatisch gegenereerde technische antwoorden die daar alleen maar staan om clicks te trekken of antwoorden doorspekt met niet ter zake doende woorden die verwarring stichten. Dat heeft een mens niet in zitten typen.

Google doet er ook aan mee door vragen te stellen en niet correct te beantwoorden. We zijn bezig een waardevolle bron van informatie te verpesten. Ga ook eens na wat het wordt als de ene foute AI als input andere AI gegenereerde output verwerkt. Garbage in, garbage out. Dit is geen potentieel scenario, het gebeurt al. Het wordt tijd dat we teksten markeren als afkomstig van een echt mens met echte skills en kennis van het onderwerp.
Die foute rommel is wel degelijk door mensen getypt, puur en alleen om clicks te genereren. Natuurlijk is er nu ook AI gegenereerde rommel, maar zo lang is ChatGPT nog niet beschikbaar.
Reken er maar op dat over 2 jaar er geen menselijke content meer te vinden is (buiten archieven om). Alles zal worden gegenereerd en het Internet zoals we die nu kennen zal niet meer bestaan. Teksten, plaatjes en op ten duur ook filmpjes. Alles wordt door AIs gedaan. Mensen zijn niet meer dan een soort dirigenten van content creatie.
Ik weet niet of dat in een paar jaar zo zal zijn maar ik denk wel steeds meer en dat het volume aan content gegenereerd wordt steeds groter wordt, meer dan consumenten kunnen verwerken. Velen zullen daar geen probleem mee hebben, er is nu al een verarming aan hoge kwaliteit content te zien op bijvoorbeeld tv en streaming platforms. Het zal steeds moeilijker of duurder worden om echt goede content te vinden die een 'discerning consumer' kan waarderen. Aan de andere kant, door AI intelligent toe te passen kun je goede content wellicht nog wat beter maken, maar dat is nog steeds afhankelijk van een menselijke geest, althans zo denk ik erover.
Je zag het destijds met analoge naar digitale fotografie ook, het werd makkelijker om foto's te maken dus was/is er een overvloed aan matige foto's in omloop. Goede fotografen konden hun kunsten nog beter maken met digitale technieken.
Ik weet niet of dat in een paar jaar zo zal zijn
Klopt, want het bestaat nu al. Zoals bijv. de door AI gegenereerde plaatjes van de arrestatie van Trump gisteren. Het wordt een grote put van fakeness in de toekomst allemaal ontstaan door AI.
Dat was het altijd al.. Weet je nog, de mama en papa in de jaren 90 die verkondigden "JE MOET NIET ALLES ZOMAAR GELOVEN WAT OP HET INTERNET VERSCHIJNT" dat zijn nu de facebookboomers die alles geloven wat je hen voorschotelt.

Het hele internet terug kunnen bestempelen als een grote hoop zever zou best handig zijn.
Je weet in ieder geval 1 ding zeker: elk middel dat in potentie een doelgroep kan manipuleren en geld oplevert, raakt gecorrumpeerd. Ook AI zal massaal ingezet worden om te cashen. Het internet is er in een kleine 30 jaar al niet beter op geworden, en met de snelle opkomst van AI zie ik het nog somberder in.
De rommel die ik tegenwoordig tegenkom op internet als je wat zoekt wordt steeds erger. Foute automatisch gegenereerde technische antwoorden die daar alleen maar staan om clicks te trekken of antwoorden doorspekt met niet ter zake doende woorden die verwarring stichten. Dat heeft een mens niet in zitten typen.
Computer gegenereerd betekend niet direct AI.
Daarnaast bestaan dergelijke sites al veel langer dan dat AI/neural net (in deze context) werkbaar is. Diezelfde sites gemaakt door mensen zijn niet betrouwbaarder dan die door AI gemaakt.

Zelfs de support draadjes op de MS site staan vol met reacties met onzin antwoorden van mensen die denken het te weten...

Garbage in garbage out is ook al ouder dan AI/neural net en dat geld zeker ook voor het internet.

Dit is geen AI probleem, dit is een mens probleem die AI gebruikt voor zaken waar het niet voor is bedoelt!

En hoe denk jij een mens te herkennen met echte skills en kennis van het onderwerp? Iemand die je alles kan vertellen over product X, betekend nog niet dat die persoon dat product kan troubleshooten of je wat betrouwbaars kan vertellen over product X+1 of hoe je het gebruikt in jou specifieke situatie. Mensen BSen anderen dagelijks dat ze dat wel kunnen en als je niet zelf voldoende kennis/ervaring hebt, herken je dat niet. En zelfs dan zijn er mensen zo goed in het BSen dat het even duurt voordat ze door de mandvallen...

[Reactie gewijzigd door Cergorach op 25 juli 2024 01:25]

Het is net met schoolboeken. Als de ai net iets meer waarde hecht aan het geen wat in die boeken staat, kan die met die info, de andere info valideren en zodoende kennis vergaren. Dat is geen garbage...
De rommel die ik tegenwoordig tegenkom op internet als je wat zoekt wordt steeds erger.
Tjeee. dat heb ik nu al 20 jaar. Waarom neem je aan dat die rotzooi door AI gemaakt word? Zolang er mensen zijn die denken dat de aarde plat is zou ik de mogelijkheid dat het gewoon mensjes zijn niet uitsluiten.
Vreemd de meeste antwoorden bij mij zijn correct. Wellicht stel je de verkeerde vragen. Alles is afhankelijk van de kwaliteit van de input. Of het nou google is of chatgpt

Edit: Ook is nog de vraag welke betekenis van betrouwbaar ze bedoelen. De menselijke als in niet bedriegen of de technische als reproduceerbaar resultaat.

[Reactie gewijzigd door bzuidgeest op 25 juli 2024 01:25]

Ik vroeg of ze iets kon vertellen over het dorp van mijn ouders en de A.I. zei dat het dorp o.a. in een andere regio ligt dan dat het daadwerkelijk ligt.
Heb je de AI ook gevraagd voor welk tijdperk die gegevens geldig waren? Grenzen van regios schuiven. En stad als breda zijn er wereldwijd ook meerdere van bijvoorbeeld.

En uiteindelijk, ja het ding is nog niet perfect. Maar dat zijn mensen ook niet.
Dat is het niet, het was een heel andere regio. Het was gewoon fout.
Waarom ben je gelijk een pessimist voor iets wat nog maar net bestaat?
AI moet nog volwassen worden. Er zullen ongetwijfeld verficatie modellen komen om de betrouwbaarheid hoog te krijgen.

Dat Mozilla nu een opensource AI ontwikkeld is een heel erg goede ontwikkeling.
Nu wordt het ook controleerbaar.
Pieken en dalen, dit is het dal die ons uiteindelijk weer naar een hogere piek brengt.

Net zoals dat goed beargumenteerde begrijpelijke menselijke informatie weer waardevoller wordt, misschien nog niet nu, maar ik verwacht vrij snel.
'maar mensen kunnen ook gewoon foute antwoorden geven, of misleidende info geven'.
Dat is beetje de catch-22 van elke discussie rond zulke zaken, er is altijd wel een argument tegen te bedenken.

Gelijktijdig zag ik gisteren op twitter wat langskomen van AI gegenereerde plaatjes van Trump die door politie wordt 'opgepakt', en wat zie ik deze ochtend (met een subtiel onderschrift) op Nu.nl? Datzelfde plaatje. Ja, maar het staat er toch bij? Als het per default 'onwaar' is, waarom dan uberhaubt posten op een 'nieuwssite'? Een site als dumpert zou het prima kunnen doen, daar zit dat niveau 'nieuws'.

Maar het bestaat al, een volledig ChatGPT nieuwssite:
https://newsgpt.ai/
'real unbiased news written by AI'.

Wanneer zou zo'n website momentum krijgen, dat deze berichten klakkeloos worden overgenomen (wat nu toch al wordt gedaan) maar factchecking louter 'geschreven door AI, dus is correct' beslaat?
Trump is de anti-christ in persoon zelve dus verbaast mij niets dat nu.nl door AI-gegenereerde afbeeldingen hierover klakkeloos overneemt. Zo objectief is nu.nl nou ook weer niet.... ;)

Wie wel eens wat probeert te posten op nu.nl komt er al vrij snel achter dat dat niet altijd even makkelijk is en dat het soms overduidelijk is dat de redactie van nu.nl een agenda te duwen heeft.
(...) dat nu.nl door AI-gegenereerde afbeeldingen hierover klakkeloos overneemt.
Dat valt heel erg mee, klakkeloos kan je het echt niet noemen. In het artikel zelf zul je zien dat er best expliciet vermeld wordt dat het om AI-afbeeldingen gaat:

Op sociale media vermaakten mensen zich door AI-programma Midjourney te vragen hoe een arrestatie
van Trump eruit zou kunnen zien.

[Reactie gewijzigd door svenvbins op 25 juli 2024 01:25]

Valt inderdaad mee zie ik. Moet gezegd worden. (y)
en wat zie ik deze ochtend (met een subtiel onderschrift) op Nu.nl? Datzelfde plaatje.
Even los van de rest van je verhaal, dit wekte wel mijn interesse. Maar ik moet zeggen dat het onderschrift nou niet bepaald subtiel is:

Op sociale media vermaakten mensen zich door AI-programma Midjourney te vragen hoe een arrestatie
van Trump eruit zou kunnen zien.
Het onderwerp van het nieuws is hier de realistisch ogende nepbeelden door een AI / photoshop werk van de arrestatie van Trump. En de amusement waarde natuurlijk ook

Al zag je goed dat het nep was. Trump droeg zelf een wapenstok op een van die beelden. Het was wel knap gedaan met zijn gezichtsuitdrukking.
Maar het bestaat al, een volledig ChatGPT nieuwssite:
https://newsgpt.ai/
'real unbiased news written by AI'.
Gezien het feit dat ChatGPT gebaseerd is op GPT-3, een AI model getraind op oude data, is het idee om daar "nieuws" mee te schrijven iewat onzinnig.

Maar taalmodellen om nieuwberichten mee te schrijven zijn al jaren ouder dan GPT-3. Dus ik denk dat je hier twee dingen door elkaar gooit. Niet elke AI is ChatGPT.
Dan schrijf je toch gewoon je eigen zoekmachine
Google heeft alleen maar baat bij foute antwoorden… dat genegeerd namelijk weer links naar websites en dus ad inkomsten.
Maar wie bepaalt dan weer wie kennis van zaken heeft?
Geven de deskundigen van het RIVM betrouwbare informatie of de door Viruswaarheid.nl aangehaalde deskundigen die exact het tegenovergestelde beweren? Wanneer je bij de input van een AI daar een expliciete keus over maakt ben je een deel van je publiek al bij voorbaat kwijt.
Ik volg je helemaal naar ik denk juist dat het paradoxaal genoeg misschien juist wel gaat leiden tot minder impact van die internet rommel. Online reviews worden waardeloos zodra AI gegenereerde 'IMDB sterren' niet meer kunnen worden uitgefilterd. Dus gaan mensen weer naar een (betaalde) website of Magazine waarvan ze weten dat die reviewers en goede smaak hebben, of je vertrouwt weer op adviezen van vrienden.

Het probleem is dat nu zonder AI het internet ook al verdrinkt in rommel, Russische trollen en clickbait idioten maar dat we er nog steeds op vertrouwen. Misschien is het wel goed als AI dat allemaal verdrinkt in een oneindige stroom van content als we daardoor gewoon weer gaan vertrouwen op websites waar we een abonnement op hebben omdat we weten dat die te vertrouwen zijn omdat ze bijvoorbeeld geaudit zijn of bij een journalistieke beroepsorganisatie zijn aangesloten
Ik vind het vooral interessant dat hun doel betrouwbaarheid is in plaats van geloofwaardigheid. Dat zou deze AI veel geschikter maken voor bijvoorbeeld zoekmachines dan ChatGPT.

Je wil dat de AI zegt dat ie iets niet weet in plaats van dat hij dingen gaat verzinnen, zoals met GPT nu gebeurt.
Maar als je geen AI gebruikt maar 'gewoon' google, hoe beoordeel jij dan de betrouwbaarheid?

Gisteren moest ik 144mm in inches hebben en een zeer betrouwbaar uitziende site vertelde me dat het 4.38819 was. ik kwam er achter toen twee dure metalen delen niet in elkaar pasten. Maar zou jij hebben kunnen beoordelen dat het 4.48819 had moeten zijn?
Ik denk dat het grootste verschil tussen een zoekmachine als Google en een chatbot als ChatGPT is dat bij Google je alle bronnen kunt zien.

Op een enkele uitzondering na (calculator, wisselkoersen etc.) geeft een zoekmachine je een aantal bronnen waar je het antwoord waarschijnlijk kunt vinden en kun jij zelf beoordelen aan welke bronnen je meer waarde hecht. Als jij een conversietabel ziet op de website van de IEEE en eentje op de hobbyblog van MonkeyNuts98 dan vertrouw je die van de IEEE waarschijnlijk meer.

Bij ChatGPT blijven de bronnen geheim en kun je dus als gebruiker niet inschatten wat de betrouwbaarheid is. Als een ChatGPT antwoord een door elkaar gehusselde combinatie is van informatie van Wikipedia, MonkeyNuts98 en Reddit 8)7 dan zul jij dat als gebruiker niet weten. Jij krijgt gewoon een tabel te zien waarvan ChatGPT in al zijn mansplainende zelfverzekerdheid beweert dat dat dé conversietabel is en dat moet jij dat maar geloven.

Daar bovenop komt dan nog dat ChatGPT wel eens last heeft van 'hallucineren', het zelf verzinnen van antwoorden die nooit onderdeel zijn geweest van de trainingsdata. Hij verzint zelfs af en toe het bestaan van niet-bestaande wetenschappelijke papers (soms met echt bestaande auteurs, soms met verzonnen auteurs) compleet met DOI nummer en alles. Alleen heeft dat paper dus nooit bestaan maar weet ChatGPT hoe een referentie aan een paper er normaal gesproken uit ziet en verzint ie iets in hetzelfde formaat.

[Reactie gewijzigd door Maurits van Baerle op 25 juli 2024 01:25]

Bing Chat geeft de bronnen wel. Zowel bij de beweringen in de tekst als onder de tekst zelf.
Daar kan je makkelijk op doorklikken om er achter te komen of een bewering uit een wetenschappelijk artikel afkomstig is of uit een troll-war op Reddit.
Het valt me toch wel op dat de nieuwe AI chat en image diensten als paddenstoelen uit de grond schieten sinds de aankondiging van ChatGPT. Hoe gebeurd dit opeens allemaal zo snel na elkaar? Gevalletje beter goed gestolen?
Gevalletje beter goed gestolen?
Ik denk eerder een gevalletje van FOMO van de hypetrein.

Al jarenlang wordt door verschillende partijen aan verschillende vormen van 'AI' verwerkt. Doordat de eerste partij nu de figuurlijke steen heeft geworpen door een dienst publiekelijk beschikbaar te stellen en commercieel te exploiteren, is de rest min of meer gedwongen om ook de resultaten van hun werk te gieten in bruikbare diensten, ongeacht de kwaliteit van die diensten. Dit wordt versterkt de veronderstelling dat degene met de grootste datasilo straks de 'sterkste' zal zijn. Om die datasilo te vullen moet je data hebben die je enkel via crowdsourcing kan verkrijgen. Om crowdsourcing te krijgen moet je een goed gevulde datasilo hebben. Vroeger beginnen is een voorsprong hebben.

Of die voorsprong een remmende voorsprong gaat zijn gaan wij nog zien.

[Reactie gewijzigd door The Zep Man op 25 juli 2024 01:25]

Dit wordt versterkt de veronderstelling dat degene met de grootste datasilo straks de 'sterkste' zal zijn. Om die datasilo te vullen moet je data hebben die je enkel via crowdsourcing kan verkrijgen. Om crowdsourcing te krijgen moet je een goed gevulde datasilo hebben. Vroeger beginnen is een voorsprong hebben.
Dus... Archive.org zal straks de 'beste' AI hebben? Ze Librarian! ;)
Archive.org is geen datasilo, maar een open dataveld. Iedereen heeft er toegang tot.

Een silo heeft maar één in- of uitgang.
Het is in principe een open dataveld, maar de realiteit is dat ze de enige zijn met een voldoende snelle toegang tot die data om er binnen een redelijke tijd iets zinnigs mee te doen.
Je moet een veld eerst oogsten voordat je wat nuttigs met het resultaat kan doen. Dat klopt.
Is vooral ook een hype (marketing) woord de laatste maanden. Vrijwel zeker dat we het op korte termijn ook in allerlei 'dagelijkse producten' gaan zien als marketing term.... Van wasmiddel en makeup tot aan auto's en scheerapparaten.. Let maar op.

Ach die massa-marketing term 'groen' was ook al aardig uitgemolken mocht ook wel een keer weer wat anders.
Robijn AI wasverzachter:
Robijn AI wasverzachter is een innovatief product dat gebruik maakt van kunstmatige intelligentie om je wasgoed optimaal te verzorgen. Robijn AI wasverzachter analyseert de stof, kleur en vuilgraad van je kleding en past de dosering en geur aan voor het beste resultaat. Zo blijft je kleding langer mooi, zacht en fris.

Robijn AI wasverzachter heeft verschillende geuren om uit te kiezen, zoals Zwitsal, Morgenfris, Paradise Secret, Rosé Chique1 en Beautiful Mystery. Elke geur heeft een eigen karakter en geeft je kleding een langdurige geursensatie. Bovendien zijn de ingrediënten van Robijn AI wasverzachter voor 95% biologisch afbreekbaar, waardoor je ook beter voor het milieu zorgt.

Robijn AI wasverzachter is verkrijgbaar in voordeelverpakkingen van 8 x 30 wasbeurten bij bol.com of Albert Heijn. Bestel nu en profiteer van de scherpe prijzen en snelle levering. Met Robijn AI wasverzachter doe je de was met een glimlach! 😊
Met dank aan Bing... ;)
Hahaha! Het zou een 1 april grap kunnen zijn...
Het valt me toch wel op dat de nieuwe AI chat en image diensten als paddenstoelen uit de grond schieten sinds de aankondiging van ChatGPT. Hoe gebeurd dit opeens allemaal zo snel na elkaar? Gevalletje beter goed gestolen?
Ik zie twee redenen:
1. iedereen die aan een vergelijkbare AI werkt voelt nu de angst om te laat te zijn. Producten worden nu snel gelanceeerd voordat OpenAI de hele markt in handen heeft.
2. OpenAI heeft laten zien wat mogelijk is én dat er geld mee te verdienen valt en dat de markt groot is omdat de software bruikbaar is voor gewone mensen. Nu weten anderen ook hoe het moet/kan.
Precies dat ja. Van deze technologie is vaak heel snel inzichtelijk hoe die werkt, omdat of het onderzoek waar het op is gebaseerd openbaar is, of ze een bestaand pakket toepassen.

De huidige generatie AI is allemaal gebaseerd op GPT-3 of GPT-4, met daar een eigen schil omheen en eigen infrastructuur onder, en ieder een eigen dataset. Maar de kern is van al deze oplossingen hetzelfde.
Volgens mij kun je niet zeggen dat alle AI gebaseerd is op GPT. Sterker nog, er zijn mensen die beargumenteren dat GPT niet eens AI is maar simpeler Machine Learning. GPT zou wat minder geavanceerd zijn dan alternatieve systemen maar dat compenseren door aanzienlijk meer trainingsdata te hebben gebruikt dan alternatieven.

Bovendien is GPT een specifieke vorm van een taalgebaseerd systeem, een Large Language Model (LLM), en zelfs dat model heeft concurrenten.

Daarbovenop komt nog dat een heleboel AI helemaal niet om taal draait en dan heb je dus al niets aan een taalgebaseerd systeem. Als jij AI wil gaan gebruiken bij het helpen bij chirurgische ingrepen of het voorspellen in vloeistofmodellen heb je niets een taalgebaseerd systeem.
Correct. Specifiek is de kern een neuraal netwerk (dat is zo'n beetje elke AI in de afgelopen 10 jaar), en dan specifiek een Transformer die voor generatieve doeleiden wordt gebruikt. De architectuur is goed gedocumenteerd, met uitleg over de keuzes.

Voor ChatGPT wordt dit model gestart met een stukje conversatie achter de schermen. Zo krijgt die bijvoorbeeld 'Het is vandaag donderdag 23 maart 2023" als input aangeboden. Daarmee kant ChatGPT de vraag "Welke dag is het vandaag" beantwoorden, op basis van een taalmodel !
Zoals altijd is er jaren en jaren stilletjes ontwikkeld en onderzocht en getest. Dan is er 1 zo ver die op de markt komt en in de haast om niet achter te blijven word de rest dan ook wakker. En dan krijg je wat jij nu observeert.
Niet anders met de covid vaccins. Men ziet daar een complot omdat ze er "ineens" waren. De werkelijkheid is dat ze gebaseerd zijn op tientallen jaren onderzoek voor precies dat soort gevallen. Het hoefde alleen nog maar getweaked te worden.
Het is vaak zo dat na het online verschijnen van de whitepapers waar de architectuur van een neuraal netwerk in word beschreven, andere mensen er mee aan de slag kunnen en er eventueel wijzigingen in aan kunnen brengen. Zodra bepaalde informatie publiekelijk beschikbaar is, helemaal bij projecten zo populair als chatgpt, schieten klonen als paddestoelen uit de grond.
Heb even zitten zoeken naar waar die nieuwe diensten dan eventueel inspiratie weg kunnen halen, aangezien chatgpt gesloten software is, maar het type netwerk waar deze op gebasseerd is is wel gewoon bekend. BLOOM is een netwerk (meer vergelijkbaar met gpt3 dan chatgpt) die volledig open source is, en waarvan dus alle broncode van te lezen valt. Iedereen kan deze bestuderen en aanpassen.

[Reactie gewijzigd door vancha op 25 juli 2024 01:25]

nou, Stanford Uni heeft bijv. een opensourced Meta model gepakt en laten trainen door chatGPT generated training data ... ze waren snel klaar! En hoewel dit een eenvoudig model was, gaf het ook (soms) betere resultaten dan GPT!

Gewoon bizar. Zie link onder. Dit is trouwens een heel goed kanaal voor onderbouwde analyses - hij gebruikt onderzoeksrapporten.

https://www.youtube.com/watch?v=xslW5sQOkC8
Dit kun je nu op je pc/mac thuis draaien, datasets zijn beschikbaar, zoek op alpaca.cpp

[Reactie gewijzigd door z1rconium op 25 juli 2024 01:25]

99% van al die tools draait op de API's van OpenAI (het bedrijf achter ChatGPT).
Geval van kansen zien nu de techniek eindelijk zover is voor een grote doorbraak.

Het tijdperk van de standaard zoekmachines lijkt nu eindelijk naar een volgende generatie te gaan. Kijk eens naar Altavista, Jeeves, Yahoo en Google. Zoveel is de functionaliteit niet veranderd in al die jaren.

En om geld te verdienen natuurlijk, dit gaat om heel veel $$.
Vele geldschieters pompen al jaren lang vele miljarden in meerdere bedrijven en onderzoeksgroepen om verschillende vormen van AI te ontwikkelen. Veel van die bedrijven en onderzoeksgroepen haalden regelmatig het nieuws met persberichten, demo's en presentaties, waarmee ze hun geldschieters lieten zien dat ze vordering maken en gelijk opgaan met (en liefst voorsprong hebben op) de competitie. En allemaal hadden ze wel iets dat ongeveer een beetje werkte maar nog de nodige tweaks nodig had. En allemaal hadden ze wel een vage stip ergens op de horizon wanneer er een praktisch toepasbaar concept klaar zou kunnen zijn.
En dan komt OpenAI dat ChatGTP, zo'n ongeveer beetje werkend concept, groots presenteert en Microsoft die het aandurft om dat met al z'n kanttekeningen en quirks in Bing te integreren. En plotseling krijgen al die andere bedrijven en onderzoeksgroepen, die maandelijks hun geldschieters braaf rapportjes stuurden over hoe ver ze op de concurrentie voor liepen, vragen van hun geldschieters over waarom ze zover achter lopen dat ze nog geen vergelijkbaar product kunnen uitbrengen.
Dus nu maakt iedereen overhaast de laatste versie van AI waar ze aan werken gereed om uit te brengen. Maar ondertussen heeft OpenAI met de Bing-integratie een gigantische voorsprong. En ik voorspel dat een hoop bedrijven een groepen die een maand geleden nog dachten een hele sterke positie in het AI onderzoek te hebben binnen een half jaar de deuren kunnen sluiten, omdat ze hun AI niet op tijd klaar kunnen maken voor een toepassing of het niet aan de juiste toepassing hebben kunnen koppelen.
betrouwbaar en AI, die twee worden gaan niet samen. Niet omdat een AI eng is of zo, of per definitie onbetrouwbaar in de menselijke zin, maar omdat het hele idee is dat AI uiteindelijk net als mensen gedachtesprongen zou moeten kunnen maken en het resultaat daar van is niet in regels vast te leggen en dus nooit betrouwbaar in technische zin, nooit volledig voorspelbaar om een ander word te gebruiken.
Zo werken huidige modellen van AI dus niet.
ALs je correcte data zou geven dan zal die AI correcte en betrouwbare data teruggeven.

Nu echter heb je enorme datasets waar ook gewoon fouten tussenzitten EN AI's die geleerd zijn gewoon te verzinnen als ze het niet weten .
AI's moeten mensen vervangen en die verzinnen ook als ze het niet weten. De grote kracht van AI is juist interpretatie en verzinnen. Anders heb je gewoon een domme rule engine.

Zelfde voor de "Correcte" data. We weten zelf niet eens wat correct is, laat staan dat we dat aan een AI kunnen voeren. En dan nog zou een AI ook net als mensen incorrecte conclusies kunnen trekken.

De huidige AI zit wellicht nog dichter bij een rules engine dan een werkelijke AI, maar ik denk dat jou opmerking veel te simplistisch gesteld is.
Tja dat is wat AI momenteel is, echter is het een "slimme" rule engine.
En ja we weten wel wat feiten zijn, maar dat zal heel veel manueel werk vragen en daar wringt het schoentje natuurlijk.
Ik wil niet overkomen als een wappie, maar onze "feiten" veranderen continue. Wetenschap staat niet stil en inzichten veranderen continue. Zeker in de softere wetenschappen. Maar zelfs wiskunde en dergelijke veranderen.
Neen het grootste deel van de feiten is gewoon vast, gezien onze kennis veranderd er eigenlijk heel weinig en dat kan je er gewoon uitlaten.
Ooit was homo zijn een ziekte volgens de DSM, nu is het dat niet meer. Zoals ik al zei, zeker in de softere wetenschappen veranderen "feiten" met de tijd.
En van al die dingen vond men ooit dat ze vaststonden. Radiogolven waren ook ooit nutteloze curiositeiten.... etc etc..

[Reactie gewijzigd door bzuidgeest op 25 juli 2024 01:25]

En voor de 2 voorbeelden die je gaf (die decenia oud zijn btw) zijn er 20 000 te geven waar het gewoon wel vastligt. Nogmaals nergens spreek ik ervan psychologie boeken erin te laden , die kan je gewoon achterwege laten.
Het zijn twee makkelijke en bekende en hele duidelijke voorbeelden. Zijn er vandaag de dag ook genoeg te vinden.
En je maakt de zaak niet beter door de AI ook nog incomplete informatie te geven. Dat gaat de kwaliteit echt niet verbeteren.
Hoe bouw je skynet? Leer een AI feiten en laat menselijk psychologie achterwege, zodat het ons beter snapt.. HAHA.
Maar zonder gekheid. Informatie achterwege laten is de eerste stap naar een alles behalve betrouwbare AI, Wie bepaalt wat weggelaten moet worden? Jij, Geert Wilders, Rutte, Poetin?
Het ding is dat jij blijkbaar AI wil gebruiken om mensen te doorgronden? Dat is bij voorbaat gedoemd te mislukken.

IK praat over waar het hierover ging: een AI betrouwbare info laten geven. En als een AI dat niet kan over inhoudelijke menselijke gedcahten/gevoelens actie zoals ik al zei: dan laat je die dan niet beantwoorden.

DUs ja het is wel degelijk mogelijk een heel betrouwbare AI te bouwen, die zal enkel kunnen afgaan op betrouwbare data en die zal dus idd beperkter zijn dan 1 die "alles op internet" kan gebruiken.
Zelfs een relatief exacte wetenschap als bijvoorbeeld architectuur is aan menselijk gedachten en gevoelens onderhevig. Een AI een huis laten bouwen zonder daar rekening mee te houden is een instant faal. Puur op natuurkunde en chemie en efficient ruimte gebruik etc zal de AI best een woonkubus kunnen maken, maar een woonruimte waar een mens zich prettig in voelt is een heel andere zaak.

In mijn opinie denk je veel te makkelijk een onderscheid te maken dat helemaal niet zo zwart wit is. Misschien ben je nog erg jong. Maar de meesten leren dat de menselijke factor van bijna niet echt los is te weken, tenzij je of iets heel beperkts wil bouwen of wil falen.
Je pakt weeral een redelijk extraam voorbeeld van iets dat subjectief is.
Nogmaals het ging hier over de eenvoudige vragen die nu gesteld worden waar ook fouten insluipen NIET om de AI een film scenario te laten schrijven dat een oscar wint.
Misschien ben je nog erg jong.
Integendeel en ik ken iets van AI af, nogmaals jij beseft niet hoe "AI" nu werkt en waarom het perfect mogelijk is om die heel betrouwbaar te maken is.
In software, patenten op algoritmes, het komt wellicht voor
het gaat dan ook helemaal niet over regels of "feiten" waar de mens een eigen invulling aan geeft.

Of homo zijn nu strafbaar is of niet, dat is geen feit.
Een boom is gemaakt van hout, dat is een feit.
Vreemd, ik heb bomen van allerlei materialen gezien. Onder andere van plastic. Daar gaat je "feit"
En of homo zijn strafbaar is zeker een feit, naar gelang tijdperk en plaats.Zoals alles heeft het echter context nodig. Een heleboel natuurwetten werken op onze macro schaal, maar op het niveau universum of de andere kant op, niveau quantum, werken ze ineens niet meer als verwacht.
Begrijpend lezen is toch moeilijk, en dit draagt bij aan ons aller ondergang.
Begrijpend lezen is toch moeilijk, en dit draagt bij aan ons aller ondergang.
Moet dat een belediging zijn of een conclusie?
Aangezien ze dit opensource maken betekent dit dat ieder bedrijf dat iets met AI wilt dit nu heel makkelijk kan maken. Want als dat het geval is zie ik dit over een paar jaar in elke helpdesk functie ingebakken zitten.
Het software deel zal opensource worden. Maar een AI is zo slim als de dataset waar het mee getraind wordt en de manier waarop het getraind wordt.

Maar om je klacht af te poeieren met de mededeling dat het bedrijf het vervelend vindt dat jij het zo ervaren hebt, is geen geavanceerd AI-model nodig.
Het vervelende daaraan is dat je nu nog wel redelijk doorhebt dat je met een bot praat, maar als de AI redelijk menselijke antwoorden kan geven zit je dadelijk uren te praten met een bot om je geld terug te krijgen.
OPEN SOURCE AI?? Dat is geweldig...
Zijn er andere bedrijven die ook open source AI hebben? Google? Microsoft?
AI is mooi als open, transparant en ongecensureerd is, dat laatst gebeurt nu al omdat sommige mensen vinden dat iets niet goed voor jou is daar wringt op dit moment met name de schoen.
het is wachten tot de AI een nieuwe AI aankondigt :+
Je maakt een grapje, maar ik heb met AI engineers van Google gesproken op een conferentie. Google gebruikt al een AI bij het bepalen welke hardware ze moeten gebruiken om een nieuwe AI te trainen. Dit soort modellen kost miljoenen aan rekenkracht, dus daar wil je efficient mee omspringen. En AI's zijn daar nu al beter in dan mensen.
waarna een AI er een nieuwsbericht over post :/
En de AI ook zelf comments genereert en op zichzelf reageert in verschillende stijlen om zo de schijn van een actieve community te creëren.

}>
Maar dan een versie waar armagedon zich louter op reddit afspeelt.
.

[Reactie gewijzigd door PrimusIP op 25 juli 2024 01:25]

LOL 🙈, Edge voor Windows laat een link/advertentie popout naar de mobiele Edge app zien als je https://mozilla.ai/ bezoekt. Met een tekst als iets van "je mobiele AI copilot". Zal wel triggeren op een .ai domein.

[Reactie gewijzigd door Henk Poley op 25 juli 2024 01:25]

Nope, ons bedrijf heeft ook een .ai domein en daar triggert Edge niet op.

Op dit item kan niet meer gereageerd worden.