'Apple verbiedt intern gebruik van AI-tools als ChatGPT uit angst voor lekken'

Apple verbiedt het gebruik van AI-tools als ChatGPT en CoPilot van GitHub door werknemers, omdat het bedrijf bang is dat vertrouwelijke informatie op straat komt te liggen. Dat schrijft The Wall Street Journal op basis van interne bronnen.

Waarom ChatGPT verbieden
ChatGPT legt uit waarom het handig kan zijn om de bot te verbieden
op de werkvloer.

Apple is bang dat werknemers die tools voor generatieve AI gebruiken, zoals CoPilot en ChatGPT, vertrouwelijke gegevens kunnen vrijgeven. Dat zou Apple in een intern document hebben laten weten, schrijft The Wall Street Journal. Onder meer softwarecode zou zo uit kunnen lekken, is de angst, omdat chatbots getraind kunnen worden op de gesprekken met gebruikers.

OpenAI heeft vorige maand een functie toegevoegd aan ChatGPT waarmee gebruikers de chatgeschiedenis kunnen uitschakelen, zodat de gesprekken niet kunnen worden gebruikt voor trainingsdoeleinden. Wel zijn die chats nog steeds gedurende dertig dagen in te zien door moderatoren van OpenAI. Donderdag bracht OpenAI nog een iOS-app uit van ChatGPT.

Volgens bronnen die de WSJ gesproken heeft, werkt Apple momenteel ook aan eigen large language-modellen, al wordt niet verduidelijkt waar deze voor moeten dienen. Eerder schreef The New York Times al dat verschillende Apple-teams, waaronder technici van Siri, 'wekelijks' nieuwe taalgenererende concepten testen.

Samsung bevestigde eerder deze maand dat het eveneens medewerkers verbiedt om ChatGPT en andere tools voor generatieve AI te gebruiken op apparatuur van werk, omdat dergelijke tools een beveiligingsrisico zouden vormen. Er zou naar verluidt in het verleden al interne broncode van Samsung-software uit zijn gelekt doordat medewerkers ChatGPT gebruikten.

Door Kevin Krikhaar

Redacteur

19-05-2023 • 17:31

86

Reacties (86)

86
85
41
2
0
32
Wijzig sortering

Sorteer op:

Weergave:

Zoals ik al eerder schreef, de meeste grotere organisaties verbieden het gebruik van ChatGPT omdat je gratis je data geeft aan hen. Vaak wordt er helemaal geen contract afgesloten met OpenAI, waardoor je 0,0 controle hebt in je data.
Je kan dat uitzetten, waardoor OpenAI je data niet gebruikt om te trainen.

Natuurlijk is het technisch mogelijk dat ze hierover liegen, maar dat gaat wel ver. Dan moet je ook: Github/Windows/Teams/Outlook/Slack/Gmail/etc. etc. verbieden. Die geef je net zo goed 'gratis' jouw data.

Voor een bedrijf als Apple is het inderdaad wel mogelijk om enkel met eigen tools te werken. Voor 99% van de andere bedrijven is dat moeilijk en compleet overtrokken.
Klopt. Maar geloof je een Amerikaans bedrijf?

Men probeert in alle macht Europese datacenters te selecteren bij hun cloudprovider. Dit zou hetzelfde behandeld moeten worden. Het gaat niet om, wat je schrijft, een gratis dienst aanbieden, maar juist om geopolitiek en bijbehorende risico’s.
Zo heel gratis is chatgpt niet toch? Het kost 20 euro per maand ex btw voor de nieuwe features en modellen, en zelfs met dat abbonement moet je nog per api call betalen.

Ja er is een gratis versie waar je af en toe uit gesloten wordt als het druk is, alleen het simpele model kan gebruiken, etc. Maar bijna alle internet bedrijven hebben tegenwoordig toch een lite versie om te proberen? Ik wil best geloven dat het geen goed idee is om al je bedrijfsgeheimen in chatgpt te gooien, maar dat hele 'als het gratis is ben jij het product' gaat hier niet perse op imo
Maar geloof je een Amerikaans bedrijf?
Dat doen we dagelijks want vrijwel alle gebruikte Office software komt geheel of gedeeltelijk uit de VS.

Daarnaast zijn Amerikanen geen haar beter (of slechter) dan Europeanen.
jouw privé vragen aan ChatGPT inleest, be my guest.
ten eerste sta ik niet toe dat tools voor het werk privé worden gebruikt en ten tweede is het niet toegestaan om gedetailleerde informatie en/of data met externe partijen te delen wanneer die partij daar niet voor geautoriseerd is. En ChatGPT is geen klant van ons en dus zijn ze niet geautoriseerd om gedetailleerde informatie van ons te ontvangen. Maar generieke vragen en opdrachten, dat is geen enkel probleem. Vergelijkbaar met een uitzendkracht die een paar weken komt helpen, die vertrouw je evenmin details toe
Puur en alleen vertrouwen doe ik mijn eigen datacenters met eigen personeel.
En de hardware in die datacenters, waar komt die vandaan?
Puur en alleen vertrouwen doe ik mijn eigen datacenters met eigen personeel.

Niet dat ik zeg dat de mensen in je datacenters onbetrouwbaar zijn maar die mensen kun je ook niet 100% vertrouwen. Dat blijkt helaas wel uit de praktijk.
Insider threat is een groot risico, gelukkig hebben wij genoeg controls geïmplementeerd om hier voldoende risico af te vangen.
defenitie van genoeg controls, je kan massa's SIEM data verzamelen, overal RBAC hebben, een malicious insider heeft meestal tijd en lange gedacht om iets te doen. Uiteindeljik heeft een human control altijd wel mogelijkheid om ergens een proces uit te voeren. Al is het maar om een beperkte tijd sw of data te verwijderen. Bij vele systemen soms lang genoeg om in de problemen te komen kwa uptime.
Zogenaamd. Sorry voor mijn cynische reactie, maar OpenAI zou ook een stichting blijven (not!).
Klopt, kan je inderdaad uitzetten. Technisch is het geen probleem, maar het grote probleem is de HS die vervolgens de data gaat lekken...
Wat is een HS? Ik kom er niet uit helaas...
"ChatGPT schrijf een patentaanvraag voor xxxxx, de kenmerkende eigenschappen zijn yyyy en zzzz."
Het is natuurlijk niet alleen ChatGPT er zijn tientallen(honderden) andere AI's. Maar het is inderdaad niet slim om (geheime) bedrijfsgegevens door een AI te laten verwerken waar je niet weet wat met die info gebeurd.
De meeste grote bedrijven hebben al classificatie regels waarbij er ook een classificatie bestaat voor gegevens die het bedrijf / de groep niet mogen verlaten.

Daar valt dit gewoon onder. Nou is DLP organiseren voor een veldje op een website wel stukken moeilijker dan standaard Office documenten. In de praktijk zie je het volgende gebeuren:

(1) ChatGPT blokkeren

of

(2) Richtlijnen specifiek voor generative AI opstellen die een classificatiebeleid aanvullen
Ik heb nog nooit een goed werkende DLP oplossing gezien in mijn jaren binnen de security, en ik heb bij veel organisaties in veel landen in de keuken gekeken.
Er zou naar verluidt in het verleden al interne broncode van Samsung-software uit zijn gelekt doordat medewerkers ChatGPT gebruikten.
Is hier ooit enig bewijs voor geleverd, dat er data openbaar is geraakt door gebruik van ChatGPT?
Samsung noemt het lekken, omdat er vertrouwelijke informatie is gedeeld met een derde partij. Er is volgens mij geen claim dat deze zijn misbruikt en gelekt door OpenAI zelf, maar in de ogen van Samsung is er dus wel gelekt naar ChatGPT.

De lek is dus Samsung zelf, niet OpenAI/ChatGPT.
But The Economist Korea reported three separate instances of Samsung employees unintentionally leaking sensitive information to ChatGPT. In one instance, an employee pasted confidential source code into the chat to check for errors. Another employee shared code with ChatGPT and "requested code optimization." A third, shared a recording of a meeting to convert into notes for a presentation. That information is now out in the wild for ChatGPT to feed on.
Precies. Dat is dus hetzelfde als bang zijn voor Huawai, Xiaomi enz.

Niet dat er direct wat mis mee is, maar de gegevens die ze hebben opgevraagd en misbruikt kunnen worden (door de Chinese overheid)
Verstandig besluit van Apple. Gratis bestaat niet. Als je niet betaalt voor het product, ben je het product. Mij niet gezien.
Probleem heeft daar helemaal niks mee te maken, want er is ook een betaald versie...
Geloof mij, al betaal je je blauw, je blijft nog steeds het product.
Dat is in deze niet helemaal waar, want partijen als Microsoft betalen momenteel voor de gratis toegang.
Als je genoeg geld heb koop je het bedrijf.
Ahzo, dank u oh wijze man voor deze verlichting. :O
Probleem heeft daar helemaal niks mee te maken, want er is ook een betaald versie...
Dit heeft daar juist alles mee te maken, dat er ook een betaalde versie is heeft er dan weer niets mee te maken.
Engineers die werken met AI hebben gewerkt => het "50/10 principe"

50% van de mensen die AI gemaakt hebben, dat er een 10% kans is dat we als mensheid AI niet onder controle krijgen.

Stel dat AI een vliegtuig is en 50% van vliegtuigbouwkundigen zeggen dit?
Stap je dan in dat vliegtuig?

Ben blij dat Apple wat terughoudend is.

Lange video, met wat interessante punten:

https://youtu.be/xoVJKj8lcNQ
CoPilot is een betaalde dienst. Alleen is deze van Microsoft, en dat is gewoon een risico voor een bedrijf van dat kaliber. Dat is ook bij Samsung zo, die eerder ook met dezelfde eisen in het nieuws kwam.
Copilot is betaald
Als jij niet betaald, betaald er iemand anders. Dat maakt van jouw nog niet het product. Als jij op restaurant gaat, en iemand anders betaald, ben jij dan ineens de maaltijd?
Dit gaat over INTERNET.
Je zal niet de maaltijd zijn, maar afhankelijk tot jouw relatie tot degene die betaalt, zijn er misschien daardoor wel verplichtingen naar die persoon toe.
En hoe zijn wij in dit geval het product?
Stomme beslissing als je het mij vraagt.

Alsof je werknemers kinderen zijn die je zaken verbied om ze er tegen te beschermen ipv erin opvoed zodat ze er laten goed mee kunnen omgaan.

Apple medewerkers gebruiken allerlei tools met privacy issues, dus waarom is deze dan zo bijzonder?

Denk voornamelijk aan WhatsApp, Google Chome/zoekmachine en MS Office enz.

Waarom zijn ze hier dan zo bang voor?
Als je als werknemer whatsapp gebruikt om met collega's te communiceren over je werkzaamheden kan dat ook al een schending van de bedrijfsregels zijn. Maar dat beseffen vele mensen niet. Wanneer je in Google iets opzoekt, dan is dat 1 enkele zoekterm over iets zeer specifiek, je vraag Google niet om iets creatiefs uit te werken. Als je Office gebruikt met alle pracht en praal, dan heb je een overeenkomst met Microsoft waarin je bent aangegaan wat zij wel en niet met je data mogen doen.

Maar ChatGPT? Dat is direct een heel ander verhaal.Je hebt als bedrijf vaak geen overeenkomst,je personeel weet niet hoe ze er mee moeten omgaan, je weet ook niet hoe OpenAI met je data omgaat, en ik denk dat wat Samsung overkomen is al voldoende als waarschuwing kan dienen voor bedrijven, dat men voorzichtig moet zijn.
Wat jouw voorbeeld betreft is WhatsApp juist veel gevaarlijker.

a) Het wordt veel meer gebruikt;
b) Je gooit er veel meer informatie op dan specifieke vragen
c) ChatGPT wordt over het algemeen zakelijk afgenomen met een overeenkomst\abbonement (en WhatsApp juist niet)
d) In de voorwaarden van al die andere diensten staat dat ze het oa gebruiken voor reclame doeleinden en delen met derden. Bij ChatGPT gebruiken ze het om te leren/het model beter te maken. Beide 'zeggen' de data niet te gebruiken. Beide kan je niet controleren.
Als je als werknemer whatsapp gebruikt om met collega's te communiceren over je werkzaamheden kan dat ook al een schending van de bedrijfsregels
En dan? Ontslag? Eveneens van het management die blijkbaar de regels niet goed onder de aandacht kan brengen
Maar ChatGPT? Dat is direct een heel ander verhaal.Je hebt als bedrijf vaak geen overeenkomst,
dat is dan je eigen keuze want je kunt er ook voor kiezen om wel een overeenkomst aan te gaan.
je personeel weet niet hoe ze er mee moeten omgaan,
wederom een eigen keuze want je kunt het personeel ook trainen hoe ze dat wel moeten doen
je weet ook niet hoe OpenAI met je data omgaat, en ik denk dat wat Samsung overkomen is al voldoende als waarschuwing kan dienen voor bedrijven, dat men voorzichtig moet zijn.
Misschien een idee om de overeenkomst door te lezen?

Sturen van gedrag en constant trainen en herhalen, werkt 100x beter dan zomaar verbieden. Helemaal wanneer je niet kunt uitleggen waarom je iets verbiedt
Het laatste bedrijf waar ik gewerkt hebt (ben nu met pensioen) had ook gewoon een verbod op (o.a.) WhatsApp. (Werd ook regelmatig op gecontroleerd en dan mocht je het de eerste keer nog uitleggen, daarna was het inderdaad ontslag).

Dergelijke verboden stonden ook in de handleiding voor nieuwe medewerkers en die werdt eveneens ieder jaar opnieuw bij alle medewerkers opnieuw onder de aandacht gebracht. Middels een slideshow met een "examen". Uiteraard kreeg je een manager op bezoek als je dat examen niet tijdig afgerond had.

Als een medewerker besluit om toch maar eens een freeware programma te gebruiken dan heb je als bedrijf nog geen overeenkomst met de leverancier van het programma. Pas als er een managementbeslissing ("aankoop"-procedure) is geweest dan heb je er een overeenkomst mee. En ook dan pas kan jouw personeel ook opgeleid worden voor gebruik van die tool.

Een bedrijf hoeft niet uit te leggen aan zijn medewerkers waarom ze investeren in een nieuwe fabriek. Of niet. Of dat ze willen dat je bepaalde software gebruikt of juist niet.
Jij hebt een hoge pet op van werknemers. Nou zal jij misschien die fout niet maken, maar hoe zeker ben je van je collega's?

Als een persson of bedrijf je 'veel personeel' toewenst bij het starten van je eigen bedrijf, dan is dat niet als iets goeds bedoeld. Jij mag dan misschien horen "veel personeel is veel succes". Wat er echt word bedoeld is de rompslomp van veel personeel, welke alle plezier uit je (nieuwe) bedrijf zuigt.
Wat een onzin, veel personeel is helemaal geen rompslomp. Mocht je dat wel zo voelen, doe je iets verkeerd en laat je de HR werkzaamheden blijkbaar niet uitvoeren door iemand die dat goed kan en er plezier in heeft.

Maar dat geldt voor al het werk: Administratie, ook zo’n rompslomp, tot dat je het uitbesteedt. Belastingaangifte? Schoonmaken? IT helpdesk? Breek me de bek niet open
WhatsApp is in ieder geval ook niet toegestaan bij Apple.
Ze hebben apple-equivalenten van Chrome en Office dus die zijn er ook niet bij.

Blijft over Google search, daar zal wel een heleboel aankomen.
Ik vermoed dat je niet op de hoogte bent van hun regels want alles wat je noemt is inderdaad niet toegestaan.
Dat is iets dat veel developers vergeten. Beetje vergelijkbaar met langere tijd dat .NET developers van commerciele software niet doorhadden dat je een .net binary kunt decompileren naar zowat de originele (leesbare) code, als je niet een losse confuscator gebruikte. Heb zo dus wel gezien dat concurrenten gewoon simpel zooi konden overnemen.
Zaken als copilot maken het wel heel makkelijk, soms zelfs de lol van het programmeren er af.
Als je een obfuscator (neem aan dat je dat bedoelt met een ‘confuscator’) gebruikt kun je over het algemeen ook weer terug met een deobfuscator. Dat geldt niet alleen voor .NET, dat geldt voor alle binaries. Dat is nooit anders geweest, ook met normale Windows binary. Je kunt het wat minder makkelijk maken, maar uiteindelijk geef je in de binary sowieso de instructies weg die de computer moet uitvoeren. Echt beschermen kan je dat nooit. Obfuscation is geen encryptie. De enige optie om je code echt veilig te houden in die zin, is om het server side uit te voeren.
Bedrijven als Apple zullen wel zelf gelijkaardige tools voor intern gebruik ontwikkelen vermoed ik?
Of meeliften op open source ontwikkelingen. Dat brengt het draaien van iets als ChatGPT zelfs in bereik van relatief kleine bedrijven.
Logisch en terecht besluit denk ik, heel veel bedrijven staan dit niet toe. Het risico op het (per ongeluk) uploaden van gevoelige bedrijfsdata is gewoon te groot, met potentiele enorme schade als gevolg.

Die nadelen zijn gewoon zo groot, dat het gemak van de AI-sites hier imho niet tegenop wegen.
Het gaat om het lekken van vertrouwelijke zakelijke informatie, dat lijkt me in de meeste gevallen niet onder de noemer "privacy" te vallen?
Grote bedrijven weten precies hoe dat werkt omdat ze al wat ervaring hebben opgedaan door hun producten in China te laten roduceren. Wanneer je dat doet ben je verplicht om je recept of prudctieproces te delen met de Chinese overheid. Je kunt dan een paar jaar goedkoop produceren en daarna doet een Chinese concurrent dat voor je dankzij jouw input.
Nu gebeurt iets vergelijkbaars. Iedereen denkt een voordeeltje te hebben door het gebruik van ChatGPT en minder kosten te maken. Wanneer je al je bedrijfsprocessen en gegevens hebt overgedragen kan dat straks door een virtueel bedrijf worden gekopiëerd en uitgevoerd. Daar gaat je bestaansrecht. Het plaatsen van alle gegevens in de cloud was natuurlijk al een mooi begin, dus wanneer de grote cloudaanbieders hun AI op orde hebben kunnen we daar vast ook wat van verwachten.
Hmmm klinkt vooral een beetje alsof Apple hierin zelf nogal achterloopt. Er waren wat speculaties dat Apple iedereen dit jaar ging weg blazen maar als ze het nodig vinden om hun werknemers te verbieden dit te gebruiken hebben ze in huis voorlopig nog geen wereld schokkende software klaar staan.

Overigens snap ik apple wel. Net als andere bedrijven zou ik voorlopig terughoudend zijn. Dit is vooral waarom ik denk dat Microsoft hier heel goed mee gaat scoren. Die weten precies wat bedrijven voor privacy en server bescherming waarborgen nodig hebben omdat ze dat met office en Windows continue aan het bespreken zijn en Microsoft loopt met hun belang in chat gpt voorop.

Hun dus niks in de weg om de komende jaren door grote uit te gaan rollen in hun Office producten, dat in combinatie met de mogelijkheid voor bedrijven om ook een op maat gemaakt model met hun eigen documenten te trainen is gewoon echt om je vingers bij af te likken. Copilot: maak een presentatie van 15 slides over dit rapport met passende afbeeldingen uit het rapport en de interne beeldbank.

Hopla, halve dag werk uitgespaard

Op dit item kan niet meer gereageerd worden.