Meta staat militair gebruik Llama-modellen toe in VS en partnerlanden

Meta heeft besloten zijn AI-modellen beschikbaar te maken voor militaire doeleinden in de Verenigde Staten en andere landen. Het techbedrijf gaat samenwerken met defensiebedrijven zoals Lockheed Martin en Palantir.

Meta kondigt het nieuws aan in een blogpost. Volgens het bedrijf kunnen de modellen onder meer worden ingezet voor het opsporen van terroristische activiteiten en het verbeteren van cybersecurity. Naast de VS krijgen ook Canada, het Verenigd Koninkrijk, Australië en Nieuw-Zeeland toegang tot Llama-modellen voor defensiedoeleinden. Deze landen vormen samen het Five Eyes-inlichtingenverbond. Voorheen verboden Meta’s gebruiksvoorwaarden expliciet militaire toepassingen. De beslissing volgt op berichten dat Chinese overheidsinstellingen de Llama-modellen zouden gebruiken voor militaire toepassingen, iets waar Meta geen toestemming voor heeft gegeven.

Door Andrei Stiru

Redacteur

05-11-2024 • 08:15

47

Submitter: Noxious

Reacties (47)

47
43
19
3
0
16
Wijzig sortering
Op Vox was een tijdje terug een filmpje over hoe Israël al volop AI gebruikt om raketdoelen volledig te automatiseren op basis van gezichtsherkenning. Vervolgens een risicoanalyse maakt voor slachtoffers op basis van de rang van het doelwit. Dan is er nog de menselijke controle die checkt of het geen vrouw begaat en hop de raket gaat de lucht in.

Meta heeft natuurlijk een kaartenbak aan persoonsgegevens die ze onder de tafel kunnen schuiven aan wel betalende militaire bedrijven.
Op Vox was een tijdje terug een filmpje over hoe Israël al volop AI gebruikt om raketdoelen volledig te automatiseren op basis van gezichtsherkenning. Vervolgens een risicoanalyse maakt voor slachtoffers op basis van de rang van het doelwit. Dan is er nog de menselijke controle die checkt of het geen vrouw begaat en hop de raket gaat de lucht in.

Meta heeft natuurlijk een kaartenbak aan persoonsgegevens die ze onder de tafel kunnen schuiven aan wel betalende militaire bedrijven.
Nou dat klopt maar gedeeltelijk. Ja er een AI gebruikt genaamd Lavender. Maar er is geen menselijke controle:

According to six Israeli intelligence officers, who have all served in the army during the current war on the Gaza Strip and had first-hand involvement with the use of AI to generate targets for assassination, Lavender has played a central role in the unprecedented bombing of Palestinians, especially during the early stages of the war. In fact, according to the sources, its influence on the military’s operations was such that they essentially treated the outputs of the AI machine “as if it were a human decision.”

en

One source stated that human personnel often served only as a “rubber stamp” for the machine’s decisions, adding that, normally, they would personally devote only about “20 seconds” to each target before authorizing a bombing

Zeker als je cijfers van onafhankelijke partijen hoort die zegt dat 70% van de doden kind of vrouw is dan gaat er iets mis
https://www.972mag.com/lavender-ai-israeli-army-gaza/

[Reactie gewijzigd door Praetextatus op 5 november 2024 12:55]

Ik kan alleen spreken over wat er in Oekraïne gebeurd, maar daar zie je dat zowel Oekraïense als Russische zijde dat steeds meer operaties aan het front worden geautomatiseerd. Tot bepaalde hoogte is de afstand tussen besluitvorming en daadwerkelijke actie de laatste decennia al steeds verder vergroot en vervaagd. Dit is vooral goed te zien bij systemen die "fire-and-forget" functies gebruiken, waarbij het wapen na lancering autonoom naar het doel zoekt, zoals 9M133 Kornet en FGM-148 Javelin maar ook bij SSM, SAM en ASM systemen.

Autonome systemen bieden zowel Rusland als Oekraïne een strategisch voordeel door snelle beslissingen en beperkte menselijke betrokkenheid mogelijk te maken, vooral in situaties waarin onmiddellijke respons vereist (of althans geacht door die partij noodzakelijk te zijn) is.

Kamikaze-drones, of netter loitering munitions genoemd, worden door electronic warfare ook steeds autonomer omdat dit de effectiviteit vergroot en voorkomt dat de drone uit de lucht valt of een doel mist als die zijn verbinding even verliest. Met anti-jamming kom je maar beperkt ver, waardoor je steeds meer richting autonomie moet gaan om ervoor te zorgen dat drones hun missie kunnen voltooien zonder afhankelijk te zijn van een constante verbinding met de operator of überhaupt afhankelijk zijn van een operator en uiteindelijk gemakkelijker zwakke plekken raken op doelwitten (zoals de top-attack die de Javelin uitvoert of een drone kan bepalen of die een luik invliegt mocht die open staan of op een zwakke plek invliegt op de achterkant/bovenkant van een tank of tussen de koepel en de romp). EW stuwt de voorgang naar autonoom. Het pad wat nu is ingezet binnen drones zal steeds meer richting fire-and-forget gaan waarbij sensorfusie en algoritmes/AI dus steeds belangrijker worden, eerst om stukjes over te nemen of op koers te houden, daarna voor overname voor de laatste meters en uiteindelijk voor gehele missies. Het hek is al van de dam. Hopelijk zal ontwikkelt zich ook de noodzaak om systemen niet af te laten gaan bij misidentification die de drones in staat stellen een alternatieve landingsplek te kiezen als het oorspronkelijke doelwit niet beschikbaar is (zoals ik dacht bij de AGM-158 JASSM die, indien het primaire doelwit niet kan worden bereikt, kan worden geherprogrammeerd om een secundair doelwit aan te vallen of veilig terug te keren naar een vooraf bepaalde locatie.)

Oekraïne bevindt zich in een situatie waarin technologische ontwikkeling en modernisering van het leger noodzakelijk zijn in een conflict waar de asymmetrie tussen beide partijen groot is en existentiële bedreiging een feit. Ze moeten dus wel zuinig omgaan met hun soldaten omdat ze (meer geven om hun soldaten en) er minder van hebben. Dus deels autonome systemen kunnen riskante taken uitvoeren of een direct systeem niet kan komen, waardoor Oekraïense soldaten in sommige gevallen buiten de gevarenzone kunnen blijven en uiteindelijk met minder middelen het maximale uit hun operaties te halen.
Yeah, at the moment, the critical success factor is actually the pilot. If you have a good pilot, they can pilot and crash into a tank or an Orlan or whatever. But you're still relying on a pilot. Where things will go is they will be autonomous and automated and will remove that pilot from the equation, and both sides are working on that at the moment.

AI will play a growing role. At some point, we will probably experience something like the Terminator. Science fiction becoming science fact is quite incredible. We’ve opened Pandora's box towards technologies like Skynet and the Terminator. Now it's just about making sure that the good guys have better technology than the bad guys.

This arms race in AI and autonomous systems has very serious ramifications. There must be people in the corridors of power realizing that we need to harness AI before they harness AI because otherwise, things could go very wrong.
Stukje uit: YouTube: Ukraine War Live Stream w/ Alex from NAFO - What's It All About?

Mijn kennis op het gebied van het Hamas-Israël-conflict is te beperkt om een volledige vergelijking te maken, maar het lijkt erop dat Israël een andere benadering hanteert ten aanzien van militaire operaties in dichtbevolkte gebieden, wat resulteert in aanzienlijke schade en burgerslachtoffers. Dit wordt versterkt doordat Hamas operaties uitvoert in woonwijken en zich tussen burgers bevindt, wat de risico’s voor burgers verder vergroot. Hierdoor ligt de nadruk minder op een gerichte aanpak om burgerslachtoffers te vermijden (of iig lijkt te liggen), zoals de Verenigde Staten en Oekraïne doorgaans nastreven. Of de inzet van AI door Israel daardoor juist meer of minder slachtoffers maakt kan ik niet zeggen en durf ook niet te zeggen of de balans tussen militaire effectiviteit en burgerbescherming hierdoor ernstig verstoord is geraakt.

@jumbos7 lijkt daar een goed stuk over geschreven te hebben.

Betreffende het vliegtuigvoorbeeld. Ik denk dat die soep helaas minder heet gegeten wordt dan je daar stelt. Kijk maar naar de MH17-aanslag: zelfs zonder dat er een vermeende vijand aan boord was, bleven harde maatregelen uit. Sterker nog, terwijl de juridische processen nog liepen, werden er zelfs gasonderhandelingen met Rusland gevoerd door de Nederlandse regering onder Rutte. Wat laat zien dat economische en diplomatieke belangen regelmatig de boventoon kunnen voeren, zelfs bij zulke tragische gebeurtenissen.

[Reactie gewijzigd door jdh009 op 5 november 2024 20:06]

Zeker als je cijfers van onafhankelijke partijen hoort die zegt dat 70 van de doden kind of vrouw is dan gaat er iets mis
Ik neem aan dat je 70% bedoelt. Anders gaat er juist "heel veel goed"...in hoeverre je het doden van levens goed kan noemen.
yes dankje wel. Ik heb t gecorrigeerd!
Er gaat ook iets goed mis, maar dat is volgens het boekje van de IDF. Als de AI namelijk een vermeend doelwit denkt te pakken te hebben mag er na die zogenaamde controle van 20 seconden afhankelijk van de rang van het doelwit 50 tot 200 burgerslachtoffers vallen. Of dat er in werkelijkheid meer zijn dan voorspeld weten we niet. Ook accepteert men een foutpercentage van 10% (bijv. doelwit heeft een vergelijkbare naam of deelt een telefoon met een vermeend Hamas doelwit), of het niet hoger ligt dat weten we niet.

Ook weten we niet hoeveel of hoe weinig je zou moeten doen om als doelwit gezien te worden. Niets daarvan kan geverifieerd worden en met de vele journalisten die zijn omgekomen komt er ook steeds minder naar buiten.
Dan is er nog de menselijke controle die checkt of het geen vrouw begaat
Dat toont toch aan dat je zowel de betrouwbaarheid van de AI en de motieven van Israel enorm in twijfel moet trekken, ook werd er niet meer dan 20 seconden besteed aan de controle dus veel meer dan kijken wat het geslacht is was er ook niet echt bij.

En dan werd ook nog een foutpercentage van 10% acceptabel gevonden, en dat is de officiële foutpercentage, dat individuele IDF-personeelleden niet altijd volgens de regels handelden maakt zelfs dat percentage twijfelachtig in mijn ogen.
Targets that met or exceeded that threshold would be passed on to operations teams after a human analyst spent an estimated 20 seconds to review them. Often this involved only checking whether a given name was that of a man (on the assumption that women are not combatants). Strikes on the 10 percent of false positives—comprising, for example, people with similar names to Hamas members or those sharing phones with family members identified as Hamas members—were deemed an acceptable error under wartime conditions.
https://foreignpolicy.com...mas-gaza-deaths-lavender/
En dan hebben we het nog niet gehad over het feit dat het aantal (voorspelde) burgerslachtoffers die dan als acceptabel worden gezien om het vermeende Hamas doelwit te doden 50 tot 200 kon zijn en waarbij familie en buren van vermeende Hamas-leden als onbeduidend werd gezien. Dat is later pas bijgesteld niet omdat er teveel burgerslachtoffers vielen maar om geen bommen te verspillen.

Moet je voorstellen hoe wij zouden reageren als een land bewust een civiel vliegtuig uit de lucht schiet met 200 passagiers omdat volgens gezichtsherkenning 1 vermeende vijand van dat land instapte? We zouden op zijn minst alle diplomatieke banden verbreken met dat land.
The families and neighbors of those possible Hamas members are viewed as insignificant collateral damage, and many of these strikes have so far been directed at what one of the Israeli intelligence officers interviewed called “unimportant people”—junior Hamas members who are seen as legitimate targets because they are combatants but not of great strategic significance. This appears to have especially been the case during the early crescendo of bombardment at the outset of the war, after which the focus shifted towards somewhat more senior targets “so as not to waste bombs”.
Als je de Israëlische (social) media volgt en de uitspraken en beelden die daar voorbij komen ziet snap ik niet waarom niet alle alarmbellen op rood staan, elk ander land zou door het westen als een pariastaat behandeld worden zo niet als volksvijand nummer 1. Maar nu blijven sancties uit en worden zelfs wapenleveringen voortgezet ook al waarschuwen mensenrechtendeskundigen voor de gevolgen, en zelfs bij rechtelijke uitspraken wordt enorm geprotesteerd, zoals we zien bij onze eigen overheid.

[Reactie gewijzigd door jumbos7 op 5 november 2024 19:36]

"AI" voor gezichtsherkenning is onderhand wel zo oud. Ik snap iedereen het over AI heeft nu het net als blockchain en cloud een marketingterm is geworden die bedrijven overal en nergens rondstrooien, maar er zit nogal een verschil tussen LLM's en gezichtsherkenning.

Gezichtsherkenning doen we nu zo'n twintig jaar al prima. Niet perfect, maar goed genoeg. 't is niet alsof Israël nu ineens wel geeft om een raket die per ongeluk een burger raakt als gezichtsherkenning een foutje maakt.

Wat je beschrijft zou men vijf jaar geleden een "algoritme" hebben genoemd. Het Israëlische systeem is niet zo heel speciaal omdat het een algoritme gebruikt, maar meer omdat het gebruik maakt van een massasurveillancesysteem dat China-stijl overal bijhoudt wie waar komt.
Hoezo of het geen vrouw begaat? Wat is dat nu weer voor discriminatie?
Als je ziet hoeveel burgerslachtoffers er bij Israëlische bombardementen worden gemaakt dan zou ik zeggen dat de AI wellicht niet goed zijn werk doet of laks staat afgesteld.
Dat heeft weinig met AI te maken, en veel meer met de belangenafweging van het Israëlische leger. Hoeveel collateral damage en negatieve publiciteit kunnen we accepteren voor het te behalen resultaat.

In een hete oorlog, wat dit is, verschuift die afweging een behoorlijk eind richting acceptatie.

Is niets nieuws, dat is oorlog. Oorlog is een smerige onderneming.
Dat het doel etnische zuivering is dat kun je moeilijk ontkennen als je ziet wat er openlijk in Israëlische (social) media gezegd wordt en waar steeds meer mensenrechtenexperts en organisaties over overtuigd raken. Of de AI zo ingericht is of zo bedoeld is doet er eigenlijk niet toe wanneer het samen gebruikt wordt met uithongering en eigen initiatief van talloze soldaten en officiers die de regels die op papier staan niet zo nauw nemen en dit oogluikend wordt toegestaan.
Mensenrechtenexperts waarschuwen voor etnische zuivering in noorden Gaza
De Verenigde Naties en mensenrechtenorganisaties slaan alarm vanwege de aanhoudende belegering door het Israëlische leger van het noorden van Gaza. Het gedwongen vertrek van Palestijnen, het tegenhouden van humanitaire hulp en het grove geweld dat gebruikt wordt, wijzen op een etnische zuivering, zegt onder meer de Israëlische organisatie B'tselem.

https://nos.nl/collectie/...zuivering-in-noorden-gaza
Een redactioneel artikel van Haaretz:
Editorial | If It Looks Like Ethnic Cleansing, It Probably Is
Given this, it's no wonder that grave suspicions have arisen that Israel is effectively perpetrating ethnic cleansing in northern Gaza and that this operation is intended to permanently empty this area of Palestinians.

This suspicion fits with both the principles of the "generals' plan" being pushed by Maj. Gen. (res.) Giora Eiland – a plan Defense Minister Yoav Gallant has denied implementing – and the demands of the Jewish supremacist parties in the governing coalition that are openly pursuing a policy of mass expulsions and the renewal of Jewish settlement in northern Gaza.

https://www.haaretz.com/o...04-d91e-a9df-dbad3f940000
Israëlische ministers die etnische zuivering en zelfs 2 miljoen hongerdoden zouden goedpraten:
Israeli minister demands the resettlement of Gaza

“We will encourage voluntary transfer of all Gazan citizens. We will offer them the opportunity to move to other countries because that land belongs to us,” he told protesters, as smoke rose in the background. He added that it was “the most ethical” solution to the present conflict.

https://www.thetimes.com/...settlement-gaza-8wwq89630
Smotrich stands by ‘misunderstood’ comment seeming to justify Gaza starvation

On Monday, Smotrich told a conference Israel was providing aid to Gazans because it had no choice. “Nobody will let us cause two million civilians to die of hunger, even though it might be justified and moral until our hostages are returned,” he said.
https://www.timesofisrael...-justify-gaza-starvation/

[Reactie gewijzigd door jumbos7 op 5 november 2024 16:40]

Ik denk dat China zich weinig zal aantrekken van 'EULA' van Meta. Als het model gewoon openlijk is te downloaden en je kunt dit op je eigen server(park) draaien, lekker belangrijk wat Meta daar dan van vindt.
Het is niet dat Meta iets in de melk te brokkelen heeft om China op de vingers te tikken in ieder geval.
Waarschijnlijk niet, maar nu is het ook mogelijk/toegestaan voor de VS om Llama in te zetten.
idd, anders was het een oneerlijk voordeel voor de dictators van deze wereld.
De stappen die nu ondernomen worden zijn eigenlijk onderdeel van een arms race naar de meest krachtige vorm van AI. Of dat nou GAI is of niet doet er eigenlijk niet doet. De hoeveelheid power die een dergelijke krachtige AI heeft over andere landen kan vergelijkbaar zijn met nucleaire macht.

Ik zou het mooi vinden als Tweakers een uiteenzetting doet over deze nieuwe tech race.

Zelf ben ik voorstander van dit initiatief waarin er word opgeroepen om een pauze in te lassen met betrekking tot de ontwikkelingen van modellen krachtiger dan GPT4. Dit word verder verduidelijkt in hun proposal waarin ze streven naar een nieuw verdrag dat door alle landen binnen de VN zou moeten worden ondertekend.

Op deze website worden verrassend veel sterke argumenten gegeven waarom we nu die pauze zouden moeten inlassen en dat dit ook nog haalbaar/controleerbaar is door het gecentraliseerde aspect van AI hardware en het gerelateerde stroomverbruik. Ik was van mening dat mocht iets echt uit de hand lopen, dan trekken we de stekker er uit (letterlijk) maar ook dit blijkt geen oplossing meer te zijn.

Edit: de discord server is ook erg actief en informatief voor wie daar interesse in heeft: https://discord.gg/pauseai-1100491867675709580

[Reactie gewijzigd door walletje-w op 5 november 2024 12:23]

China lijkt wel op normale mensen, die trekken zich ook weinig aan van een EULA of lezen die überhaupt niet eens :)
Uit de naam van een overeenkomst (MIT, GNU, BSD) kunnen de meesten van ons al bepalen wat wel/niet mag. Zonder te lezen. En in overheid en professionele sfeer respecteren de meesten van ons dat ook. Dat is het verschil.
Het verschil is dat "gewone" mensen die de EULA overschrijding gestraft kunnen worden en er geen middelen zijn om landen als China tot de orde te roepen.

Landen als China waarbij de Staat boven de rechtspraak staat spelen in onze ogen vals. Het is een lastig dilemma, moeten wij dan ook maar vals spelen? Of houden wij onze wel aan de regels?
Er zijn in principe wel degelijk instrumenten om landen tot de orde te roepen, maar hoe machtiger het land in kwestie hoe minder effectief die instrumenten zijn. Dat China geen rechtstaat te noemen is lijkt mij niet de reden waarom we vinden dat zij vals spelen. Ik zie sowieso niet hoe een rechter kan voorkomen dat een rechtstaat in het geheim "vals" speelt uit vermeend landsbelang. Wel kun je vermoeden dat China meer reden om vals te spelen omdat ze vanuit een achterstandspositie opereren, het westen is immers technologisch, economisch en militair nog steeds superieur aan China.
Mee eens.

Wat wel vaak over het hoofd wordt gezien in de mainstream media is dat China zelf ook ongelooflijk capabele LLMs produceert. Het is niet dat ze afhankelijk zijn van Meta.

Je hebt bijvoorbeeld Qwen van Alibaba https://github.com/QwenLM/Qwen2.5

Of de deepseek modellen van een grote Chinese investeringsfirma https://github.com/deepseek-ai/DeepSeek-Coder-V2

Deepseek Coder v2 was op het moment van release competitief aan Claude en stak boven GPT-4 uit.
De vraag is of de VS en andere zich daar wel iets van zouden aantrekken. Dat is het mooie en minder mooie van een model publiek beschikbaar maken, je kunt allerlei voorwaarden stellen aan het gebruik maar je kunt nooit voorkomen dat die voorwaarden genegeerd worden. Natuurlijk kun je er over klagen en zelfs een rechtszaak aanspannen maar in de meeste gevallen is een rechtszaak tegen de defensie tak van een staat op z'n best niet vaak succesvol. Kijk voor de grap maar eens naar de rechtszaken rondom het gebruik van asbest en bepaalde verf type binnen de Nederlandse defensie als je een voorbeeld dicht bij huis wil vinden.

Nu kun je je natuurlijk ook af vragen waarom bijvoorbeeld een Amerikaanse overheid dit model nodig zou hebben. Er zijn genoeg modellen op de markt die ze al lang konden gebruiken en zo veel beter is llama niet. Ik vermoed dat dit simpel weg een manier is om deze landen de optie te geven de llama modellen te gebruiken mochten ze dat willen maar dat er voor de rest niet veel meer mee gedaan zal worden door de overheden die nu toestemming hebben. En zij die dat niet hebben kunnen het ook gewoon gebruiken zo als je in China ziet omdat overheden zich zelf met zeer veel gemak boven de wet kunnen plaatsen en dus welke leuke tekst er ook gebruikt wordt om te vertellen dat iets niet mag het een overheid echt niet zal stoppen.
Er zal wel een 'symbiose' zijn tussen de Amerikaanse overheid en Meta m.b.t. het gebruik van deze modellen. En wellicht zit er ook nog wel een 'You scratch my back, and i scratch yours'-gedachten achter. Maar dat is pure speculatie van mijn kant.
Een Meta wil zo mogelijk ook geen 'ruzie' met de Amerikaanse overheid en heeft er ook geen baat bij als het gebruik van de modellen 'onder de tafel' vervolgens wel gebeurt en Meta daar dan een rechtzaak ofzo van zou maken. Dan kun je beter gewoon je voorwaarden aanpassen onder het mom van een samenwerking.

Ik kan mij indenken dat het gebruik van Llama niet zozeer de voorkeur geniet, maar het meer is om met de zelfde 'bron' te werken als een ander. Als je in theorie de zelfde brondata gebruikt zou de input die je levert de zelfde reactie moeten geven. Stel dat er wat geheimen lekken dat kun je deze laten analyseren door de AI en en kijken wat voor conclusies daar uit komen en welke 'intel' daar dan weer door wordt gegenereerd welke ze in China dan zo mogelijk ook zien.
We kill people based on "Meta" data...
Als mensen nu nog niet van Facebook af willen dan weet ik het ook niet meer.
Waarom zou dit een reden zijn? Staten met twijfelachtige(re) regels kunnen ook gewoon Llama gebruiken, gezien het een open source model is. En dan staat Meta toe dat onze eigen defensie ook efficienter / beter kan worden met hun modellen, en dan zou dat een reden zijn om van Facebook af te gaan?
Omdat veel van de (gezichts-) data geaggereerd wordt op facebook vermoed ik.
Jij denkt dat je een account nodig hebt/op facebook moet zitten om in de database van meta te komen?

Ze tracken voor zover ik weet iedereen, altijd en overal.
Meta vond het natuurlijk dikke prima dat China haar AI heeft gebruikt voor defensie (waarschijnlijk wachtten ze op zo'n bericht). Daarmee steeg het aanzien van Llama opeens enorm, en nu wil elk land het inzetten voor haar defensie.
Een paar weken geleden op een symposium geweest in Breda....AI in de stad.
Daar werd door specialisten de kansen en gevaren onder een gvergrootglas gelegd.
Het is volgens hen een tripje over glad ijs....
Volgens die specialisten zijn we letterlijk "fucked" als GAI ooit "vrij" komt.

[Reactie gewijzigd door Sideburnn op 5 november 2024 08:33]

Wat heeft GAI met Llama te maken? Het komt nog niet in de buurt.
Volgens die specialisten zijn we letterlijk "fucked" als GAI ooit "vrij" komt.
Waarmee je in 1 zin hebt aangetoond dat die specialisten niet echt specialisten zijn.
Was die "specialist" Rianne? :Y)
Is dit met of zonder reclames tussen de oorlogsadviezen door?
Cyberdyne META's techniek zorgt voor perfecte militaire resulaten en zal in alle onderdelen van het leger worden ingezet :+
Ik ben wel benieuwd wat voor toepassingen ze zien voor taalmodellen als Llama.
Volgens het bedrijf kunnen de modellen onder meer worden ingezet voor het opsporen van terroristische activiteiten en het verbeteren van cybersecurity.
Dit zegt natuurlijk helemaal niks. Ik kan me voorstellen dat men grote hoeveelheden gesprekken wil gaan analyseren met Llama, maar dat lijkt me eerlijk gezegd minder efficiënt dan een deep learning model toepassen dat specifiek is getraind op het herkennen van de patronen van potentiëel gevaarlijke gesprekken. Zit het hem dan in de flexibiliteit van een algemeen taalmodel?

Wil men misschien militairen trainen met behulp van (afgeleiden van) Llama? Ook daar zie ik de toegevoegde waarde niet zo van: hoe je een bom ontmanteld of een geweer onderhoudt lijkt me niet iets om uit te besteden aan een taalmodel.

Het inzetten van Llama bij autonome wapensystemen lijkt me een idioot idee. Taalmodellen redeneren niet en je wil van je wapensysteem niet hebben dat hij je niet begrijpt en daarom een verkeerd doelwit pakt of het verkeerde wapen inzet.

Kortom, ik vind het me nog moeilijk voor te stellen wat hier de beoogde toepassingen van gaan zijn.
Zuckerberg is akkoord dat o.a. Peter Thiel's Palantir ook van Meta's tech gebruik maakt?
Als we morgenochtend met Trump-winst wakker worden, dan hebben de libertijnse tech miljardairs Musk, Bezos, Zuckerberg en Thiel in ieder geval al duidelijk voorgesorteerd.

Op dit item kan niet meer gereageerd worden.