Nederlandse ambtenaren mogen DeepSeek niet gebruiken van kabinet

Nederlandse ambtenaren mogen de Chinese AI-tool DeepSeek niet gebruiken in hun werk. Dat heeft het kabinet besloten, zegt staatssecretaris Zsolt Szabó van Digitalisering. Het verbod is het gevolg van een al bestaand beleid.

De Rijksoverheid hanteert sinds 21 maart 2023 een appbeleid dat ontraadt om apps uit landen met een offensief cyberprogramma tegen Nederland te gebruiken op mobiele werkapparatuur, omdat deze spionagegevoelig kunnen zijn. Voor zakelijke mobiele apparaten uitgegeven door de Rijksoverheid wordt dan ook vooraf bepaald welke apps kunnen worden geïnstalleerd en gebruikt.

China is een van de landen met een offensief cyberprogramma tegen Nederland. "Het gebruik van DeepSeek is onder het huidige appbeleid derhalve al niet toegestaan voor de Rijksoverheid", zegt de staatssecretaris tegenover het AD. Ambtenaren mogen de app dus niet op hun zakelijke mobiele apparaten gebruiken.

Privacytoezichthouder Autoriteit Persoonsgegevens waarschuwde eerder deze week ook al over het gebruik van DeepSeek. De AP heeft 'ernstige zorgen' over het privacybeleid van DeepSeek en 'over de manier waarop het bedrijf met de persoonlijke gegevens van de gebruikers lijkt om te gaan', zegt AP-voorzitter Aleid Wolfsen. Die gegevens worden in China opgeslagen. Het doorgeven van persoonsgegevens van Europese burgers naar landen buiten de EU mag alleen onder strenge voorwaarden. "De vraag is of DeepSeek – en andere Chinese bedrijven – hieraan voldoen", zegt de AP.

De AP start dan ook een breder onderzoek naar de doorgifte van persoonsgegevens naar China. De Italiaanse privacytoezichthouder is eind januari nog een stap verder gegaan en besloot DeepSeek te laten blokkeren vanwege privacyzorgen.

Door Eveline Meijer

Nieuwsredacteur

06-02-2025 • 07:27

111

Submitter: Tacoos

Lees meer

Reacties (111)

Sorteer op:

Weergave:

En maar de gratis versie van ChatGPT blijven gebruiken dus...

... want dat is wel 'goedgekeurd®'.
Nee ook die niet. Het enige wat je mag gebruiken is Co-pilot (ChatGPT) die binnen je Office365 omgeving wordt aangeboden. Deze is namelijk wel beveiligd voor overheidsinstellingen.
Ook Copilot is nog niet veilig genoeg geacht voor algemeen gebruik bij de Rijksoverheid. De gesprekken met Microsoft lopen nog.
Op basis van de huidige bevindingen uit de DPIA is M365 Copilot nog niet compliant te gebruiken. Dit kan veranderen als gesprekken over maatregelen tussen SLM en Microsoft, die starten in januari 2025, positief verlopen. Verdere berichtgeving van SLM over voortgang volgt zodra er ontwikkelingen te melden zijn.

Organisaties kunnen echter nu al stappen ondernemen om zich voor te bereiden op de inzet van M365 CoPilot of andere general purpose AI systems. Daarbij adviseert SLM om aandacht te besteden aan het versterken van de data governance, zodat deze past op de eisen en risico's van dergelijke technologieën.

Ook is het van belang om nu al na te denken over mogelijke use cases of
domeinen waarin deze AI kan worden ingezet en om beleidskaders te ontwikkelen
die deze inzet ondersteunen.

Begin 2025 verwacht SLM nog een aanvulling op deze organisatorische
maatregelen te kunnen publiceren.

Bovenstaande hoeft niet te verhinderen dat lopende pilots/sandboxes voor M365 Copilot met een beheersbare omvang en toepassing gecontinueerd worden. Beheersbaar kan betekenen dat er geen volledige inproductiename is, geen verboden of hoog risico-toepassingen (zoals gedefinieerd in de AI act) worden ingezet, er voldoende intern toezicht is georganiseerd, er geen use case wordt toegepast die gericht is op de verwerking van persoonsgegevens etc. Deze afweging moet zorgvuldig door de organisatie gemaakt worden.
https://slmmicrosoftrijk....Copilot-DPIA-en-FRAIA.pdf
https://slmmicrosoftrijk....-Copilot-for-SLM-Rijk.pdf
https://slmmicrosoftrijk....ken-SLM-december-2024.pdf
Grappig en ergens ook wel fascinerend, ik ben werkzaam bij een G4 gemeente en wij hebben dus standaard toegang tot Copilot vanuit de Office 365 webomgeving. Onze Copilot omgeving is beveiligd onder de Enterprise data protection uiteraard van Microsoft zelf. Dus ergens is het wel bijzonder dat het rijk anders adviseert en mijn werkgever anders doet.

Overigens op het moment dat Copilot de indruk krijgt dat het om persoonsgegevens gaat dan stopt de chat en wordt je gewezen op mogelijke gebruik van gevoelige informatie.
Het rijkt adviseert dus dat er nog problemen zijn in combinatie met de GDPR. Je kan hier dus omheen werken door ervoor te zorgen dat gebruikers die gevoelige data verwerken waar zich persoonsgegevens in bevinden geen toegang krijgen tot Copilot. Dan kan Copilot die data niet indexeren en werk je rond dat probleem heen.
Verschillende besturen maken verschillende afwegingen en dus zijn er verschillende beslissingen te verwachten.

Het zal daarbij niet de eerste keer zijn dat het ene bestuur door onwetendheid te veel risico ziet terwijl een ander bestuur de onwetendheid acceptabel meent te vinden omdat het risico misschien niet uit komt.

Dit soort verwerking gaat meestal ook om persoonlijke gegevens. Omdat er geen duidelijke praktische grens is dat te voorkomen. En dus zal er vooraf duidelijk moeten zijn wat er in de praktijk mee kan en zal worden gedaan. Niet slechts op papier of in wensdenken. Terwijl veel dienstverlening op papier al vaag zijn en de praktijk op naleving al helemaal nauwelijks tot niet transparant is voor de opdrachtgevers en gebruikers. Dat zal bij de overheid niet snel anders zijn.
Ik ben ambtenaar en heb geen CoPilot tot mijn beschikking.
er staat ook nergens dat iedereen het heeft, enkel dat het niet verboden is om ter beschikking te stellen.
Gewoon verzoek indienen bij je IT afdeling binnen je overheids onderdeel. Als je het nodig denkt te hebben.

Nooit geschoten is altijd mis zeggen ze.
Het is niet gratis. Dit kost de it afdeling geld bij de overheid
Een CoPilot abonnement wordt nu geadverteerd voor 30 Euro per maand (was 17 Euro vorig jaar).
Dat is 1 uur loon voor een medewerker.
Dus als je met die tool 15 minuten efficiënter kunt werken per week is het al terugverdiend.
Echter, als het niets, of minder oplevert, is het gewoon een kostenverspilling.

Het grote risico voor organisaties is een AI oplossing uitrollen, zonder mensen ermee leren om te gaan om er ook uit te halen wat erin zit. Resultaat is dat het dan niet gebruikt wordt, en dan kun je beter het geld ervoor besparen.
Inderdaad dat dus je zou op zijn minst eerst een cursus/training moeten krijgen.
Ja, absoluut, een goede training, idealiter met praktijkvoorbeelden erin die je een op een over kunt nemen.
Cursus, maar ook stimuleren dat mensen gaan experimenteren. Als ik zie wat ik tegenwoordig met dat soort tools doe die niet in het cursusmateriaal stonden wat wij gehad hebben.
Er lopen momenteel evaluaties van coPilot binnen de rijksoverheid (i.i.g. ministeries waar ik mee te maken heb). Daarbij wordt gekeken naar de effectiviteit en ook het aspect hoe je mensen kunt helpen beter gebruik te maken van dergelijke tools. Dit staat dus wel degelijk op het netvlies binnen de overheid. Sterker nog, de AI act heeft organisaties ook verplicht om mensen op te leiden in het gebruik van AI wanneer je dit aanbiedt als werkgever.

Ik moet overigens vanuit de media vernemen dat ik DeepSeek niet mag gebruiken, dat vind ik dan wel weer apart. Die overweging had ik zelf ook wel gemaakt, maar je verwacht toch ook interne communicatie.

Verder is de discussie of we coPilot moeten willen gebruiken als overheid een non-discussie zolang we onze documenten netjes in Teams of OneDrive blijven zetten en de mail via Office365 loopt. CoPilot voegt daar geen extra risico's aan toe.
Is het niet zo dat er binnen de overheid een policy is die het gebruik van niet gecontracteerde cloud diensten verbied? Oftewel, je mocht het al niet gebruiken?
Je mag er geen 'gevoelige' informatie in plaatsen, het is niet verboden andere tools te gebruiken.
Dat zouden ze dan asap moeten instellen, want nu moet elke ambtenaar weten wat wel of niet gevoelig is, maar ook wat gevoelig kan worden als de data van meerdere ambtenaren aan de achterzijde gecombineerd kan worden.
Wat is een “niet gecontracteerde cloud dienst” nog waard als MS alles op 1 berg verkoopt?

“Nee valt onder MS365 en dat is aanbesteed!”

Krijg je dat
Zakelijk gooit MS hun AI er niet onder, want het is duur om te gebruiken.
Zeker wel. Alleen is het een losse "invoegtoepassing". Je hebt alleen wel M365 business of enterprise nodig. Wordt wel degelijk verkocht als onderdeel van de dienst MS 365 en valt daarmee dus wel onder services in het contract.

Net zoals dat je dus alles uit de azure marketplace kunt gebruiken ook al is het in principe 3rd party aanbestedingsplichtig. Microsoft levert namelijk de licenties en support zolang het niet BYOL is.

is gewoon een gigantisch grijs gebied waar je met heel veel wegkomt (gelukkig).
Vaak krijgen grote organisaties flinke korting op de aantallen. Ik werk bij een onderdeel van een grotere organisatie en volgens mij kost bijv. ChatGTP enkele euro's per maand in tegenstelling tot de 25-30 die op de site staat.
Het gezegde luidt "Niet geschoten is altijd mis."
Moest nog even cafeïne krijgen. Ben je niet altijd even scherp. 8-)
Ah, dank voor de opheldering/uitleg.
Blijkbaar heb ik het eerdere Tweakers bericht dat (de gratis) ChatGPT (versie) niet gebruikt mag worden door onze overheid.
Bennen Defensie mogen we wel DefGPT gebruiken, een van internet afgeloten versie van ChatGPT. In hoeverre deze niet gebruikt kan worden voor zaken die je normaal met ChatGPT zou doen weet ik niet. Ik heb deze nog vooral gebruikt om ideeën voor Excel om te zetten naar formules.
wordt aangeboden
Dat klinkt als een eufemisme.Ik werk veel met Power Platform en daar wordt het bij elke muisklik door je strot geduwd.
Net als wat @SniperEye zegt, ambtenaar hier, géén CoPilot, want het voldoet niet aan de eisen. We hebben er juist ook voor gekozen om hier geen pilot mee te starten, tot er meer duidelijkheid is.
Wat ik echt niet begrijp is dat er niet gewoon bepaald wordt dat er alleen Europese alternatieven gebruikt mogen worden. Oké, misschien zijn die nog niet zover als de rest, maar je moet ergens beginnen. Het lijkt er keer op keer op dat we graag alles weg willen hebben uit de EU, onbegrijpelijk.
Ik denk dat het een vrij complexe materie is waarbij lobbyisme een hele belangrijke rol speelt. Dankzij trump beginnen gelukkig wat meer politici en beleidsmakers het licht te zien.
Tuurlijk, maar het verbaasd me gewoon dat het vanuit allerlei Europese security organisaties het tot nu toe niet lukte om tot overheden door te dringen. Alleen al het gebruik van WhatsApp. Het wordt door iedere overheidsinstantie in Nederland gebruikt terwijl het eigendom is van een Amerikaans bedrijf waar je met je ziel betaald. Onbegrijpelijk dat dit kan.
Helemaal mee eens. En er is voldoende kennis en knowhow om dit zelf te bouwen/faciliteren/ondersteunen - geld is ook geen probleem, Maar blijkbaar wel (onder druk van lobbyisten) het stellen van prioriteiten
Is dat inderdaad zo?
Op de Uni waar ik werk is het gebruik van Whatsapp voor interne communicatie verboden. Nu is een universiteit geen overheid natuurlijk maar ik verwacht eigenlijk dat daar hetzelfde geldt.
De meerderheid interesseert het niks. Daar hebben we het aan te danken.
Er zitten teveel techneuten op dat managementniveau. En die spreken een andere taal dan de beslissers waardoor ze vaak bot vangen. In een commercieel bedrijf zie je ook vaak dat de meer commerciele afdelingen makkelijker dingen gedaan krijgen. Domweg omdat ze het op de juiste manier aan de CEO vertellen. Die wil geen details horen. Wij hebben ooit eens een training gekregen waarbij de techneuten op C-level moesten uitleggen waarom er een Windows upgrade gedaan moest worden. De persoon die de CEO speelde deed het wel een beetje over the top maar het werd wel heel duidelijk dat het niet de manier was om budget te krijgen van een CEO. Voor securitygerelateerde zaken zal dat niet anders zijn. Je moet echt in normale mensentaal kunnen vertellen over het hoe, wat, en waarom. Trump helpt daar nu wel een beetje mee....
Hoe zit het eigenlijk met Franse wetgeving? Als Nederlandse ambtenaren gevoelige overheids documenten en info zouden uploaden naar Mistral, is er een wet in Frankrijk die de overheid toegang kan geven tot deze data? (Zoals bv de US kan doen bij Amerikaanse bedrijven of burgers)
Euh misschien omdat dat een onzinnig beleid zou zijn. Als een EU model niet goed is, dan gaan medewerkers toch wel gewoon via google naar ChatGPT free. Kip ei verhaal, ik weet.

[Reactie gewijzigd door Trivmvirate2 op 6 februari 2025 09:52]

niet zover omdat het niet wordt gebruikt en dus niet wordt ontwikkeld.
een zachte dwang het wel te gebruiken zou de ontwikkeling kunnen stuwen

kip ei
Microsoft wordt gewoon gezien als europees he, dat is het hele probleem...
Tot een paar weken geleden was het probleem ook helemaal niet zo groot natuurlijk.
Nou dat zat er wel aan te komen, want ondanks dat de europese cloud deel van microsoft wordt gezien als Europa. Ziet de VS het gewoon als VS data en dus kunnen ze er beslag op leggen om het in te zien volgens de amerikaanse wet etc... dus het was sowieso al een vage situatie.

Maar nu inderdaad met de nieuwe politieke situatie's moeten we er snel van af.
Is dat zo? Ik kan mij herinneren dat voorlopig het niet toegestaan was. Dat werd ook onder de ambtenaren gecommuniceerd. https://open.overheid.nl/...c4-8dac-1d4a3e0b02ba/file
Nu kan ik geen informatie vinden of hier meer concreet een andwoord of definitief andwoord op gekomen is, of wetgeving. Ik kan me vooral de discussie toendertijd herinneren en dat mensen die ik ken en ambtenaar zijn, geen gebruik mogen maken van AI op werk apparatuur zonder toestemming.
Ik werk zelf ook regelmatig voor overheden (iets in de media) mag ik het dan wel gebruiken? Nederlandse overheden maken - zeker voor uitvoerende taken - steeds meer gebruik van externe org. Die werken dan vaak ook met allerlei (privacy gevoelige) overheidsdsdata.
Ik werk als onderaannemer voor de Vlaamse overheid en heb meer dan een jaar geleden gevraagd of ik Github Copilot mag gebruiken voor de code die ik voor hen schrijf. Ze gingen het mij laten weten maar ik heb er niets meer van gehoord, ondertussen gebruik ik het toch maar betaal ik het zelf.
Is toch raar! Waarschijnlijk is er eerst een commissie aan het bekijken in hoeverre ze het toegestane gebruik door derden kunnen beperken in relatie tot overheidswerkzaamheden/data :)
Ik ben 99% zeker dat er niemand naar gekeken heeft en dat we er nooit iets van gaan horen tot er iemand ergens een serieuze fuck up pleegt en de volledige code base inclusief keys naar China stuurt ofzo waarna het officieel verboden wordt maar iedereen met persoonlijke accounts gewoon verder doen zoals ze bezig waren.
De DPIA voor Copilot is er nog steeds niet door, dus zou bijzonder zijn als Copilot ergens ingezet wordt voor (productie)doeleinden bij overheid.
Zal goed zijn als er een soort van alg. richtlijn komt.
Die vraag dien je dan ook te stellen aan je opdrachtgever en niet hier.

Ik ga er vanuit dat het niet mag omdat je gebruikt maakt van (privacy gevoelige) overheidsdsdata.
Maakt dat gratis uit dan bij Chatgpt? Serieuze vraag, want ik heb geen idee of de betaalde versie wel geheimhouding garandeert.

Was al helemaal verbaasd dat in het ziekenhuis van een patiënten overleg de notulen uitgewerkt worden met Chatgpt
Kunnen ze geen lokale versie draaien? Dan kan je zien wat er in en uit gaat.
Het zal dan ook op de app draaien op je telefoon betreffen en niet zozeer een lokale build op een airgapped systeem. De gemiddelde politicus weet toch niet wat dat inhoud. :+
De gemiddelde ambtenaar niet maar de IT afdeling kan toch een lokale versie neerzetten en via WebUI toegang verlenen? Pin de site en je hebt een "app" qua beleving.
Maar dan heb je nog steeds een “stripped down” distilled optimized versie van het model.

Dus niet exact hetzelfde als de daadwerkelijke deepseek app.
Zolang je genoeg resources hebt kan je ook het originele model draaien, die is ook gewoon te downloaden (400GB+).
Ik zie veel handleidingen voor het lokaal draaien van de kleinere varianten. Wat voor hardware moet je hebben voor het volledige model?
Dat kan al op een server met 512GB zonder GPU's.
I ran Deepseek R1 671B using Ollama on the AmpereOne 192-core server with 512 GB of RAM, and it ran at just over 4 tokens per second.
https://www.jeffgeerling....epseek-r1-on-raspberry-pi

Kortom, zo moeilijk moet het niet zijn voor de overheid om een severparkje (met GPU's) in te richten en dit lokaal te runnen.

Weg alle zorgen over privacy, alle overheidsdata veilig, de gebruikte ambtenaren data gaat het ministerie niet uit!

en nu het in de VS de verkeerde kant dreigt op te gaan met Trump en Musk, zou ik niet meer van de Amerikaanse cloud afhankelijk willen zijn.Die risico's worden met de dag groter.
Waar ik nog wel benieuwd naar ben is of dat lokaal draaien werkelijk geen data verstuurd. Heb geen diepte-onderzoek of iets gedaan, maar dat het werkt offline maakt nog niet dat het ook niets verstuurd zodra het online komt toch?

Er is per slot van rekening (met grote waarschijnlijkheid) al gelogen over hoeveel dit model gekost heeft, dus is de optie van offline en lokaal draaien niet gewoon ook een tactiek? Los van dat het wel werkelijk een prestatie is natuurlijk.

Maar zodra je het in een netwerk hangt, hangt het al gauw aan het internet natuurlijk... in het kader better safe than sorry zou ik het zelf bij gevoelige data dan ook echt alleen offline willen gebruiken.

Is er iemand die verkeer ook gecontroleerd heeft zodra je de boel verbindt? Ik noem maar wat, checken of het uitmaakt hoeveel prompts je offline hebt gedaan en wat er gebeurd zodra je online komt (veel vs weinig).
Een LLM is een groot databestand (GGUF) zonder functionaliteit.
Wikipedia: llama.cpp

De functionaliteit zit in Ollama/Llama.cpp, en dat is ook open source, niet chinees, en wordt ook gebruikt voor Llama e.d.

Als de source-code openbaar is, dan is het lastig om daarin code te verstoppen die naar China belt.

Als het een gesloten binary zou zijn uit China, had je zeker een punt.

Denk dat de kans groter is dat een Chinese Android Telefoon naar China belt, dan een lokaal gehost DeepSeek.AI-model.
Check helder dank ook!
Zover ik heb gehoord, om het originele R-1 model te draaien heb je sowieso 1TB aan VRAM in totaal nodig. Als het niet meer is.

Ons elektriciteitsnetwerk is al genoeg belast. Laten we dat maar niet doen.
Het bedrijf waar ik voor werk heeft anders intern genoeg resources over hun rekencluster dat gevoed wordt met "100% duurzame energiebronnen". ;)
En wat is daar mis mee? Heb je wel eens gebruik gemaakt van zo'n versie (en dan bedoel ik niet een 3b variant maar bijvoorbeeld 32b of 70b), en kun je het onderscheid merken met de online variant? En áls je het onderscheid al merkt, is dat dan positief (wél fatsoenlijk antwoord krijgen als je bijvoorbeeld naar tankman vraagt) of negatief?
Ja zo doen wij dat ook binnen onze organisatie.
Ik blijf me in dit soort gesprekken wel afvragen of Open Source en onafhankelijke installaties per definitie zo veiliger zijn wat betreft privacy en dataoverdracht. Al die client computers en devices zijn toch met routers en internet verbonden en in- en output lijkt mij toch vrij eenvoudige te scrapen vanuit China.
Dat versleutel je hè. Mocht de boel gehacked worden, dan kan het een probleem zijn. Maar dat is ook een probleem zonder dat je een AI model draait, als hackers bij je interne onversleutelde data (verkeer) komen.
Afhankelijk van de installatie kan je het heel goed dicht timmeren, zo heeft hier de lokale AI alleen poort 443 naar "buiten" oftewel alleen op het LAN of via VPN bereikbaar.
Een model is “gewoon” een gigantische matrix van vector data. Daar zit verder geen logica in. Open-WebUI zou natuurlijk wel iets dodgy kunnen doen, maar daarvan kun je de source code scannen en je hebt natuurlijk je eigen beveiliging.
Ik zou ook zeggen: pak een of meer opensource modellen, en draai deze op een eigen afgeschermde infra.

Bijkomend voordeel is dat je ook nog RAG kunt toevoegen met al je eigen relevante documenten en data, zonder dat je dit op een externe omgeving moet uploaden of open moet stellen.
Of Azure (sovereign cloud), of overleggen met een Europese model as a service aanbieder.
Azure is geen echte optie, omdat microsoft een US bedrijf is. Maakt niet uit waar de data staat, de US overheid kan en mag die die data opvragen.
Dat is de theorie, in de praktijk kan het de Nederlandse regering en hun IT'ers niets schelen. Zal vooral de IT'ers een pistool tegen de kop moeten zetten om ze Azure&AWS af te pakken.
Het 'kan'. Maar gaat niet gebeuren. Ik denk niet dat de meerwaarde er van wordt gezien. Daarentegen kost het je wel tijd, ressources en bureaucratische procedures. Je ziet juist dat de overheid vooral aan het verSaaSen is. Ik zie het dan nog eerder gebeuren dat een derde partij een LLM draait op een manier die acceptabel en volgens wet- en regelgeving is en een overheidsorganisatie dan die dienst afneemt.
Of, dat een organisatie gewoon in de Microsoft fuik stapt en CO-pilot gebruikt, ondanks de bezwaren.
Van wat ik zie bewegen grotere organisaties (200+ medewerkers) al jaren meer en meer saas dus dat de overheid dat op allerlei verschillende vlakken doet verbaasd me niets.
ik heb deepseek R1 671B gewoon gejailbreaked. ik kan het alles vragen, ook over de chinese overheid. het model draait bij Venice AI, die zijn heel privacy bewust en slaan niets op. je kan daar dus heel makkelijk het systeem prompt aanpassen om het model te ontdoen van censuur. ze hosten ook een andere ongecensureerde tekst en image modellen.
Hoe koppel je deepseek dan aan venice?
ze hosten het voor je. je kan in de interface gewoon kiezen voor dat model.
Venice is gewoon een commercieel bedrijf. Ga er maar
van uit dat je data daar ook tzt verkocht wordt. Nothing is for free.

Beste is om het gewoon zelf allemaal lokaal te draaien of op een EU based cloud provider die je zelf beheert (en betaalt).

[Reactie gewijzigd door olafmol op 6 februari 2025 09:38]

de data word niet opgeslagen. er is niets om verkocht te worden. de oprichter is erik voorhees; libertariër, anti-overheid en voor individuele vrijheid. er zijn veel aanbieders die ik niet vertrouw, maar deze dus wel. als je echt paranoia bent kan je gewoon lokaal hosten :P
Dat zal allemaal. Maar wie betaalt er dan voor al die free compute? Iemand moet er voor opdraaien. Ik kon daar op de site niks over vinden. Freemium modellen werken maar beperkte tijd, op een gegeven moment moet iets of iemand voor al die compute en opslag betalen. Meer info?
'al die free compute' is een heel gelimiteerde gratis versie. het zijn maar 14 chat prompts per dag. daarnaast hebben ze betalende klanten, waarschijnlijk vooral uit de crypto scene, omdat de oprichter een oude bitcoiner is en je met crypto kan betalen voor de pro versie.
Ik had eigenlijk verwacht dat iemand zoiets inmiddels wel publiek beschikbaar zou hebben gemaakt (als in, op publieke server voor iedere random persoon via een website beschikbaar).
je kan de grootste deepseek en llama modellen gewoon downloaden hoor. om ze te draaien heb je wel stevige hardware nodig, dus het zal nooit zomaar gratis worden aangeboden op een website. maar je kan je vooralsnog gewoon aanmelden bij Venice AI en dan kan je 10 gratis chat berichten naar die modellen sturen. ofja, niet de grootste dan, want die eisen veel rekenkracht
Wel naief om te denken dat alles uit Amerika wel "veilig" is.
Amerika heeft geen offensief cyberprogramma tegen Nederland. Hoeft ook niet want we delen alle gegevens al vrijwillig want we zijn tenslotte NATO partner.
En wat persoonsgegevens betreft heeft iedereen al een google, microsoft of apple device. Daar hebben we al goede afspraken over gemaakt neem ik aan, want anders was dat natuurlijk ook niet toegestaan en draaide we alles wel op een eigen versie van Linux.

Komt uiteindelijk op vertrouwen uit, Als Amerika zegt dat ze zich aan onze privacy wetten houden dat moeten we er maar vanuit gaan dat het klopt. Als China dat zegt dan gaan we ervan uit dat ze liegen.
Amerika heeft geen offensief cyberprogramma tegen Nederland.
Wikipedia: Operation Dunhammer

Dat betreft in dit geval Duitsland. Maar het is nogal naïef om te doen alsof de VS te vertrouwen is.
Amerika heeft geen offensief cyberprogramma tegen Nederland. Hoeft ook niet want we delen alle gegevens al vrijwillig want we zijn tenslotte NATO partner.
Dat weet je dus niet tot het te laat is, net zoals Duitsland dat ook niet wist toen ze Merkel jarenlang bespioneerden. En dat NATO-leden alle gegevens vrijwillig delen lijkt me wel een heel vreemde aanname. Er zijn gegevens die we delen ja, maar dat is enorm beperkt als je kijkt naar welke gegevens er allemaal zijn.
Klopt deels maar dat is alleen omdat Nederlanders samenwerken met de USA.
Er behoeft geen offensief plaats te vinden.
Amerikaanse overheid kan gewoon alle data bij Amerikaanse bedrijven, of via Amerikaanse burgers, opvragen. Maakt niet uit of het in een Europees DC staat, of dat jij zaken doet met een Europese dochter.
Ik mag toch hopen dat Nederlandse ambtenaren geen enkele AI tool mogen gebruiken die niet afgeschermd is van de buitenwereld. Anders gaan we AI bijleren met vertrouwelijke informatie. Binnen het bedrijf waarin ik werk is daarom ook CoPilot en ChatGPT dichtgezet. Voor beide is een afgeschermde versie beschikbaar zodat gevoelige bedrijfsinformatie niet naar buiten gaat.
Anders gaan we AI bijleren met vertrouwelijke informatie
Dat ligt er natuurlijk volledig aan wat voor AI-systemen en hoe die gebruikt worden.

Een LLM is natuurlijk puur een taalmodel. Het maakt taal. Het kan niet ‘denken’ of goed data correleren.

Het heeft zelfs moeite met raadseltjes en rekenen.
Probeer onderstaande maar is:
I have a riddle for you:

I take a cup from a cabinet.
I put a marble in the cup
I put a saucer on top of the cup
I turn over the cup, holding the saucer in place
I put the cup and saucer on a table
I pick up the cup
I put the cup back in the cabinet

Where is the marble?
Ik heb nog geen LLM gezien die door heeft dat de knikker op het schoteltje op de tafel ligt.
En dat is ook niet gek, want een LLM is ontworpen om taal te verzinnen. Niet om logisch te redeneren. Daar zijn andere modellen voor nodig.
Copilot geeft het juiste antwoord in ieder geval (''On the saucer").
Betekent het dat Copilot het raadsel doorheeft? Nee, natuurlijk niet.
Maar gaf wel het juiste atnwoord :')
Oh, kijk is aan!! Dan is dat de eerste waar ik van gehoord heb dat die het goed doet😊

Edit:
Betekent het dat Copilot het raadsel doorheeft? Nee, natuurlijk niet.
Uiteraard, en dit is ook het 'valse' van al die taalmodellen. Je krijgt het gevoel dat je met een individu/entiteit te maken hebt. Mede door de "ik-vorm" waarin het communiceert.

Het denkt niet. Het 'weet' niet dat het 'er is'. (het is niet zelfbewust op enig vlak). Het is brok wiskunde die taal uitperst op basis van input. Ik zeg niet dat het dan maar 'niks voorsteld'. Het is zelfs een fantastisch iets, maar we moeten het wel behandelen en gebruiken als wat het is.

[Reactie gewijzigd door lenwar op 6 februari 2025 09:02]

Maar jij stelde ook dat niet goed kon 'data correleren'. En dat is toch echt iets dat ze tegenwoordig best goed kunnen, je eigen raadsel bewijst dat. Opmerkingen als een raadsel 'doorhebben' zeggen helemaal niets. Als een AI het raadsel oplost op dezelfde manier als een mens dat doet (zoals in dit geval), heeft AI het gewoon net zo goed 'door' als een mens. Je loopt overigens wat achter, er zijn een goed aantal 'taalmodellen' die prima overweg kunnen met dit soort raadsels. DeepSeek loopt hier wat achter.

Maar blijven roepen dat het slechts taalmodellen zijn is feitelijk onjuist, de meeste systemen zijn die stap eenvoudig voorbij. Nogmaals het raadsel als bewijs, een puur taalmodsel had dat raadsel dus nooit kunnen oplossen.
Ik denk dat je AI niet helemaal goed begrijpt.

Het punt wat @lenwar en ik maken is dat het model niks heeft "geleerd". Het heeft het voorbeeld wat gegeven werdt nu opgenomen in zijn scope, en vervolgens gepresenteerd met informatie waar het nu toegang to heeft.

Als je vraagt hoe je een gat graaft in de tuin, en de AI is hier nog nooit mee geconfronteerd dan zal het belachelijke suggesties geven.

Gaten graven was voor stenen tijdperk mensen niet moeilijk.
Stel je probeert het op Claude.ai :)
Ook die weet het antwoord. Of nouja weten...
Waarom zou het niet mogen voor niet-vertrouwelijke gegevens? Even een tekst voor op de website in je huissteil laten zetten bijv., of de nieuwsbrief spelchecken.
N=1 natuurlijk maar waar ik werk is dat helemaal dichtgetimmerd op de laptop, telefoon en iPad. Ook is er herhaaldelijk aandacht voor dat het niet is toegestaan om zakelijke dingen te vragen aan ChatGPT of andere LLM’s op je privé telefoon.
Zelfde bij ons, we hebben een eigen schil om de OpenAI APIs met allerlei scrubbing en filtering, en compleet qua contract en configuratie dichtgezet (voor zover dat kan). En wij zijn nog wel een US bedrijf ;)
"Nederlandse ambtenaren mogen de Chinese AI-tool DeepSeek niet gebruiken in hun werk".
DeepSeek is een model. Er is een website en app front-end; die laatsten mogen ze idd niet gebruiken. Graag het model loskoppelen van de interface en niet beiden op een hoop gooien in de berichtgeving.
Ja precies, dit dus. Ik vind de media op dit gebied erg onduidelijk. Waarschijnlijk ook omdat het westerse belangen schendt (heel veel beurskoerzen zijn ingekakt toen het uitkwam).

Maar met het open-source model is niks mis. Als je dat gebruikt gaat er geen bitje naar wie dan ook dus ook naar China niet. Ik zou van Tweakers wel verwachten dat ze dat onderscheid duidelijker maken.
Niets geks aan toch, op mijn werk (Amerikanse multinational) zijn ChatGPT, CoPilot, DeepSeek (en eventuele andere verboden en geblokkeerd) o.a. i.v.m Intulectual Property en/of bedrijfsgeheimen.

Op de bedrijfscomputers zijn alle sites doorgelinkt naar een eigen variant (wat ChatGPT is maar dan de betaalde versie), en op je eigen gsm/computer mag je niets werkgerelateerd zoeken.
Misschien wel handig om te zeggen dat dit om rijksambtenaren gaat, niet alle Nederlandse ambtenaren. Het is wel een groot aandeel met grofweg 1/3de van de ambtenaren (exclusief onderwijspersoneel). De helft haast als defensie personeel ook onder dit beleid valt. Gemeenten, provincies, waterschappen, die maken allemaal hun eigen beleid.

Dat neemt niet weg dat andere overheden hier niet al beleid op kunnen hebben. De meesten zijn op zijn minst bezig met AI beleid vormen. Maar een hoop zullen geen specifiek deepseek beleid hebben.
Maar niemand die iets zegt over de offline versie... Want dat mag wel in een gesloten omgeving.
Wie heeft er budget en capaciteit om dat te realiseren en onderhouden, binnen de overheid?
Wat verwacht je nu naam en toenaam? Er zijn genoeg afdelingen die zich bezighouden met innovatie op het gebied van AI daar is ruim voldoende budget en capaciteit voor.
Hoe zit het eigenlijk met het gebruik van Facebook en X voor overheidscommunicatie?

Nederlands advies mbt het gebruik van Facebook voor gemeentelijke communicatie door Dienst Autoriteit Personen:

Nederlandse overheid moet mogelijk stoppen met Facebook na advies van AP - IT Pro - Nieuws - Tweakers
Nederlandse overheid blijft voorlopig actief op Facebook na gesprekken met Meta - IT Pro - Nieuws - Tweakers

Standpunt AP:
AP: Overheid, gebruik Facebook niet bij onduidelijkheid over privacy | Autoriteit Persoonsgegevenshttps://autoriteitpersoon...uidelijkheid-over-privacy

Dit zijn artikels van april 2024 en het loopt de laatste maand echt de spuigaten uit bij Meta en X op het gebeid van moderatie, factchecking, fake nieuws, misinfomratiecampagnes, etc..

Europa wordt zenuwachtig van Musks bemoeienissen met de Duitse politiek | De Standaard
https://www.standaard.be/cnt/dmf20250107_97455860

Op dit item kan niet meer gereageerd worden.