Samsung verbiedt medewerkers ChatGPT te gebruiken op apparatuur van werk

Samsung heeft medewerkers verboden om ChatGPT en andere tools voor generatieve AI te gebruiken op apparatuur van werk. Het bedrijf is bang dat medewerkers interne bedrijfsinformatie lekken via de tools.

Waarom ChatGPT verbieden
Waarom ChatGPT verbieden

Samsung ziet in ChatGPT en soortgelijke tools een beveiligingsrisico, bevestigt het bedrijf aan Bloomberg. Medewerkers voeren tijdens het gebruik van die tools mogelijk interne informatie in, die vervolgens in handen komt van andere bedrijven. Dat kan onder meer gebeuren tijdens het laten schrijven van code of het samenvatten van documenten.

In plaats daarvan werkt Samsung nu aan een interne generatieve AI die dergelijke functies kan uitvoeren. Tot die tijd is het gebruik van generatieve AI op werkapparatuur verboden, en de straf kan variëren van 'disciplinaire acties' tot ontslag.

Volgens een memo die Bloomberg heeft gezien lekte interne broncode van Samsung-software uit doordat medewerkers ChatGPT gebruikten. Samsung is niet het eerste bedrijf dat het intern gebruik van generatieve AI verbiedt, maar wel voor zover bekend het eerste grote techbedrijf.

Door Arnoud Wokke

Redacteur Tweakers

02-05-2023 • 19:59

68

Reacties (68)

Sorteer op:

Weergave:

Bij mijn werkgever, een grote it consultant, hebben we een waarschuwing gekregen geen gevoelige informatie te gebruiken op diverse AI platformen. Voor de rest staat het ons vrij gebruik te maken, sterker nog, wordt aangemoedigd oplossingen te bedenken met/voor AI tools.
Beetje bekrompen reactie van Samsung, zo lig je meteen 1 - 0 achter tov de concurrentie qua ontwikkelingsmogelijkheden.
er staat in de tekst dat ze zelf er een aan het ontwikkelen zijn, dus dan lopen ze nu nog even achter maar zometeen hebben ze dan de kennis in huis.
Dus maar je ogen sluiten voor wat de concurrentie heeft...
Ik begrijp de zorgen wel. Zoekmachines analyseren ook alles wat je intypt. Hoe weet je als bedrijf dat Google of Bing niet meekijkt in de keuken? Zelfs als ze zelf een ander recept hebben voor hetzelfde kan het een strategisch voordeel opleveren qua in de markt zetten etc.
Omdat je bij google en bing zoekt op algemene termen en niet een specifiek intern document upload om samen te vatten.
Zo moeten wij ook uitkijken met een functie binnen grammerly die kan controleren of je geen plagiaat pleegt. Die upload namelijk het hele document wat je hebt gemaakt naar hun AI om dat te vergelijken met openbare teksten.
Inderdaad, zoek je bij Google en Bing op een paar termen, bijvoorbeeld de properties van een functie, maar als je een AI gaat inzetten om bijvoorbeeld een stuk code te schrijven of optimaliseren, weet dat AI meteen veel meer dan alleen de functie die je gebruikt.

Daarnaast, als ik het goed begrijp zijn Google en Bing ook bezig met een AI-achtige zoekmachine en dan speelt hetzelfde.
Zo moeten wij ook uitkijken met een functie binnen grammerly die kan controleren of je geen plagiaat pleegt.
Je weet toch zelf wel of je plagiaat gepleegd hebt of niet?!
Als je heel veel documenten leest om daarna zelf iets te maken kan er wat insluipen zonder dat je het door hebt. Daarnaast kunnen andere bronnen ook plagiaat gepleegd hebben.
iedereen probeert nu zelf wat te ontwikkelen, de definitie van concurrentie. Ze hebben veel geld en kennis dus ze zouden wel wat moeten kunnen maken.
Dus maar je ogen sluiten voor wat de concurrentie heeft...
Dat is geen correct commentaar. Er is een groot verschil tussen het bestuderen wat een concurrent doet en het gebruiken van hun product terwijl er data lekt.

Het is prima dat jouw werkgever denkt dat iedereen in het bedrijf weet wat gevoelige informatie is en nooit iets verkeerds doet. Blijkbaar is het nooit maandagmorgen bij jullie. Bij ons wel.
Een echte consultant gebruikt Excel ;)
Er staat niet dat ze die zelf ontwikkelen, er staat dat ze nu werken aan de interne variant daarvan. In Azure heb je bijvoorbeeld de mogelijkheid om zelf een betaalde variant van ChatGPT af te nemen (in de Azure OpenAI service - als preview), waar je een aparte container krijgt die er voor zorgt dat jouw data niet in de publieke instantie eindigt.
Je stelt zelf dat je geen gevoelige informatie erin moet stoppen, dan komt het er toch gewoon op neer dat je het niet moet gebruiken voor bedrijfszaken? Mijn werkgever overigens hetzelfde, er wordt gewoon gezegd dat het helemaal mooi is als je kijkt hoe het werkt en ermee bezig bent, met privé zaken. Niet zakelijke dingen, want dan kom je automatisch uit op bedrijfsinformatie erin te duwen.
Je hoeft toch niet bedrijfsinformatie in te voeren om een concept uit te leggen aan ChatGPT en daar vervolgens, bijvoorbeeld, code door te laten genereren? Je kan toch prima domein specifieke zaken weg laten?
Natuurlijk kan dat. Echter, ken je dit oud-Hollandsche tegelspreukje nog?

--
Mensen die werken, maken fouten
Mensen die weinig werken, maken weinig fouten
Ik ken mensen die helemaal geen fouten maken
--

In andere woorden, er hoeft maar één keer een medewerker een (onbewuste) fout te maken, door bijvoorbeeld een wel specifieke verwijzing over het hoofd te zien en dus niet te verwijderen, en dan ligt er al een stukje bedrijfsinformatie (potentieel) op straat.

En dat kan potentieel best grote gevolgen hebben. Zowel juridisch als financieel, om het over reputatieschade nog maar niet te hebben.

Waarom zou je als bedrijf dat risico willen nemen?
In andere woorden, er hoeft maar één keer een medewerker een (onbewuste) fout te maken, door bijvoorbeeld een wel specifieke verwijzing over het hoofd te zien en dus niet te verwijderen, en dan ligt er al een stukje bedrijfsinformatie (potentieel) op straat.
Wat met Google, Bing, Slack, Onedrive, Teams, en duizenden andere tools die bedrijven gebruiken om zaken op te zoeken, informatie op te slaan of te delen?

Als je chat GPT weert moet je eigenlijk heel wat andere zaken weren.
Precies dit.

Ik verwacht niet dat dit nog te vermijden is. Er worden op dit moment ontzettend veel niet-ChatGPT AI varianten ingezet, dat je ermee dood gegooid wordt. Iedereen wilt meeliften op de hype, wat uitsluiten praktisch onmogelijk maakt. Samsung gaat dan expliciet niet met ChatGPT om, en is daarin wellicht naïef om te denken dat toevallig de meest bekende pionier in AI Chat bots (ChatGPT) de enige is die de input mogelijk voor eigen gewin zou kunnen gebruiken.

Men zou dit eerder eens moeten toetsen en werknemers op moeten leiden. Laat ze zien waar AI allemaal in zit/kan zitten en leer hen data te sanitizen, zodat er geen gevoelige data in staat.

Het oude gezegde "voorkomen is beter dan genezen" is ook hier zeer relevant. Awareness creëren is in deze situatie dus beter dan uiteindelijk erachter komen dat ChatGPT slechts een van de vele spelers is.

¯\_(ツ)_/¯
Denk je nou werkelijk dat ze bij Samsung niet weten dat er alternatieven voor ChatGPT zijn?
Denk je nou werkelijk dat ze alleen specifiek ChatGPT verboden hebben en niet publieke AI tools in het algemeen?
Beetje bekrompen reactie van Samsung
Nouja dat valt ook wel weer mee, je moet je bedenken dat Samsung op een veel grotere schaal opereert dan jij (quasi ongeacht waar jij voor werkt). Samsung heeft meer dan 260.000 werknemers, dan moet je gewoon iets harder zijn met dit soort dingen.

100 mensen een eigen idee geven over of iets wel of niet kan volgens een leidraad gaat waarschijnlijk nog wel redelijk goed, maar als je dat met 100.000 mensen doet dan zijn er gewoon heel veel die verkeerd kiezen. Dus dan is het beter om alles wat meer zwart/wit te maken.
Nog veel belangrijker is dat Samsung veel aan techniek ontwikkeling doet die proprietary is en waar bijna geen andere partijen actief zijn zoals bijv de chips productie . Dus waar de gevolgen van het uitlekken vele malen groter zijn dan bij welke it consultancy op de wereld dan ook.

Die zijn namelijk uiteindelijk allemaal prima inwisselbaar omdat ze techniek toepassen maar niet fundamenteel ontwikkelen.
Ben benieuwd wanneer je werkgever per ongeluk intellectuele eigendom van z'n klanten openbaart :+

Maar de huidige privacy voorwaarden van ChatGPT zijn wel degelijk op het moment een probleem waarmee bedrijven mee worstelen om hun eigen IP te beschermen.
Ik denk er net zo over AI platformen hebben een duidelijke meerwaarde en kunnen het werk versnellen.
Onze medewerkers wordt juist aangeraden om van AI gebruik te maken, maar niet voor het maken van offertes, facturen enz. Bedrijfskritische informatie geef je ook niet zomaar per mail of per telefoon aan een wildvreemde, dus ook niet aan een AI platform.
IT consultant betekend dat je voor andere bedrijven werkt. Als hun geheimen uitlekken dan is dat voor jouw bedrijf geen probleem zolang het niet herleidbaar is.

Samsung heeft veel met onderzoek en ontwikkeling te maken. Dat moet geheim blijven.

Denk dat daar het verschil zit.
Interne broncode op internet lig je ook 1 - 0 achter. En misschien wel 9 - 0
Beetje onzinnige actie dit. Je kan beter je medewerkers een training geven over wat ze wel en niet moeten copy pasten op het web. Want dit kan ook gebeuren als je google translate gebruikt (interne memo even door de vertaler) of secrets door een online base64 encoder/decoder te halen enz. Om maar niet te spreken over de sharepoint/shares die voor iedereen te benaderen zijn en waar ook interne documenten staan.

Je kan de "tooling" wel gaan verbieden maar je kan beter een cursus geven hoe om te gaan met geheime documenten. Dat lijkt mij een veel betere aanpak.
Het 1 sluit het ander niet uit natuurlijk. Je zal als bedrijf maatregelen moeten nemen en dus het voorbeeld geven en dan kun je dat van werknemers ook eisen of ze educatie geven.

Mijn baas heeft alleen maar gekraakte software, dus kan hij lastig wat van ons verwachten natuurlijk.
Een interne memo effe vertalen vs AI gebruiken als onderdeel van je workflow om bijv. sneller code te schrijven of hele teksten te genereren op basis van specifieke informatie die als gevoelig te boek kan staan is natuurlijk heel wat anders.

Verder heb je het over een enorme organisatie. Die zomaar een cursus geven is niet te doen. Daarnaast weten mensen het in principe sowieso wel, maar gebruikt men het voor tijdswinst of luiheid of extra inspiratie.
Wat ik mij afvraag over LLM model. Ik snap dat een model trainingdata gebruikt om variabelen een waarde te geven.

Maar kun je na het trainen dus verder zonder data?
M.a.w., is het mogelijk dat een LLM model (theoretisch) een enkele executable is die je kunt uitvoeren op een machine (die krachtig genoeg is om de vectors te berekenen die nodig zijn. Ik snap dat het er veel zijn).
Is dat correct? Dat een offline versie dus mogelijk is met dezelfde kwaliteit nadat het online is getrained, en zonder toegang tot sourcedata.

Nu ik er zo over nadenk lijkt het eigenlijk een enorme comprimeringsalgoritme. Getrained op Petabytes of meer aan informatie. Maar daarna niet meer nodig.

[Reactie gewijzigd door Mushroomician op 23 juli 2024 16:22]

denk het niet. het trainen is voor het taalmodel. de inhoud wordt nog steeds van internet verzameld. Vaak wiki en dergelijke.
Ik ben geen LLM expert maar de data wordt bij een LLM niet uit het internet gehaald (chatgpt heeft data tot 2021 bijvoorbeeld) maar wordt gegenereerd. Tijdens de training heb je wel data uit internet, dat is wat de LLM AI gebruikt om het model op te bouwen. Daarna heb je dat niet meer nodig. Als je chatgpt (of iets wat er op lijkt) op een systeem kan plaatsen zonder netwerk connectie dan werkt het ook.
bepaalde zaken die ik vraag komen rechtstreeks van wiki. Als je dat niet up to date houdt is het zo verouderd. Ook een AI kan geen nieuwe feiten verzinnen, dat zou nogal raar zijn. Vragen naar de laatste politieke dingen bijv. moet je nou eenmaal bijhouden
bepaalde zaken die ik vraag komen rechtstreeks van wiki
Letterlijk? Dat lijkt me onwaarschijnlijk, er kunnen wat delen van zinnen gelijk zijn, maar een heel paragraaf een op een zoals op wiki zou wel heel bijzonder zijn. Heb je daar voorbeelden van?
Ook een AI kan geen nieuwe feiten verzinnen
Mensen gaan er van uit dat chatgpt feiten verteld. Dat is absoluut niet hoe een LLM werkt en klopt ook niet. Er zijn genoeg voorbeelden van antwoorden die feitelijk onjuist zijn. De AI genereert dan iets nieuws uit het model wat eigenlijk verzonnen is. Dat beeld van een op feiten gebaseerde ChatGPT moet eigenlijk zo snel mogelijk uit de wereld geholpen worden. Als je chatgpt vraagt naar de uitkomst van de verkiezingen in 2023 dan zal het ook aangeven dat deze gegevens niet in het model zitten, het model is getraind met data tot 2021.

De verwarring komt denk ik door integratie van chatgpt met Bing. Dat is het combineren van nieuwe gegevens op internet met de kracht van een LLM om een zin te maken met data uit een zoek resultaat. Chatgpt zonder Bing is een hele slimme tekst generator :)

[Reactie gewijzigd door david-v op 23 juli 2024 16:22]

Maar als het is zoals jij zegt dan is het een vorm van hallucineren. En als ik vraag om een assembly te herschrijven naar c++ en dat nog foutloos doet ook, is dat geen hallucineren. Het lijkt dan te bezitten over een referentie gegevens. Maar ChatGPT is zo veelzijdig dat ik niet kan voorstellen dat het overal referenties van bewaard worden.

Net zoals bij mensen is elk woord iets wat je moet onthouden. Dataopslag dus. Maar LLM werkt anders. Variabelen worden getweaked totdat het “hallucineren” overeenkomt met verwachting.

Die set van variabelen lijkt dan erg veel op een compressiealgoritme van de totale menselijke kennis.
Maar als het is zoals jij zegt dan is het een vorm van hallucineren.
Dat is niet hallucineren, dat is, gebaseerd op de enorme trainings dataset extreem goed gokken wat het meest waarschijnlijke antwoord is.
En als ik vraag om een assembly te herschrijven naar c++ en dat nog foutloos doet ook, is dat geen hallucineren
Klopt, dat is het zelf kunnen berekenen hoe je de taal decompileert van assembler naar c++ aan de hand van misschien wel miljarden regels assembly en bijbehorende c++ code.

Vergeet overigens niet dat een LLM prima kan hallucineren. Ik heb wel eens voorbeeld code gekregen met properties of functies die in de specifieke taal helemaal niet bestaan. Je kan soms een correcte stuk code krijgen, maar soms ook eentje die simpelweg niet correct is.

De werking van een LLM is best wel complex. Wat ik inmiddels wel weet is dat het geen copy paste van hele zinnen, paragrafen of programmeer functies doet maar dat zelf genereert gebaseerd op het model. En dat is best wel knap als je kijkt naar het resultaat.

Edit: er staat vandaag en artikel op de nos waar dat hallucineren van chatgpt ter sprake komt, sluit goed aan bij dit gesprek :)

[Reactie gewijzigd door david-v op 23 juli 2024 16:22]

Het is een neuraal netwerk net zoals je eigen hersenen. Dus net zoals jij een tekst kunt schrijven zonder steeds een woordenboek te raadplegen of voorbeeldtekst te bekijken, kan een LLM model dat ook.

Het trainen is gigantisch zwaar en het uitvoeren van het model is relatief makkelijk, maar dan wel met de nadruk op relatief.

Je kunt nu al een wat eenvoudiger model draaien op een MacBook: https://github.com/ggerganov/llama.cpp

Voor grotere modellen is er wel de beperking dat je een videokaart nodig hebt met heel veel geheugen, die niet voor consumenten te koop zijn.
Wat jij aangeeft, is wat er gebeurd als je OpenAI afneemt in Azure.
Alle data blijft in jouw tenant. Er gaat geen data van of naar Microsoft. Je hebt het LLM model binnen een afgesloten omgeving.
Bij mijn werkgever is het pasgeleden ook verboden geworden om diverse redenen. Na het bestuderen van het interne artikel begrijp ik de zorgen volkomen en zou ieder bedrijf goed moeten kijken welke data zij achterlaten bij AI providers.
Zelfde bij het bedrijf waar ik voor werk. Al zijn we wel aan het kijken hoe we ChatGPT in kunnen zetten zonder de problemen.
Documenten samenvatten etc mag in ieder geval niet. Maar bv. vragen om een opzet voor een blog over een bepaalde algemene onderwerpen mag wel, omdat hij dan openbare informatie gebruikt en niet informatie uit onze systemen.
Uiteraard voor elk bedrijf om de risico's en de voordelen af te wegen, maar natuurlijk dat je al een blog erover wil maken kan gevoelige informatie zijn. En wil je die 4 dagen later openbaar maken is dat niet echt relevant. Vraag je echter als Samsung engineer of ChatGPT een voorzetje kan maken voor de presentatie van een smartwatch met 5G functionaliteit, dan is dat natuurlijk gevoelige informatie.
Heel terecht dat ze dit verbieden, het heeft 2 grote risico's om publieke generatieve AI te gebruiken voor bedrijfs doeleinden.
  • 1 lekken van bedrijfs gevoelige informatie of idee-en.
  • 2 wat er gegenereerd wordt kan IP van een ander bedrijf bevatten, dat betekend dat als je dat in je producten gebruikt je de deur wagenwijd openzet om juridisch financieel uitgekleed te worden wegens inbreuk op andermans IP. (Interlectual Property)
Dit is wel heel kort door de bocht. Hoe vaak gebruikt men Google om naar specifieke informatie te zoeken of om hele lappen teksten te vertalen van bedrijfsgeheimen? Alles wat je online copy paste is een risico, niet alleen bij chatgpt maar werkelijk bij elke online tool waar je tekst in kan plaatsen.

Gaan we nu ook een base64 encoder verbieden omdat mensen daar de private key van een ssl in proppen? Of Google Translate omdat mensen daar bedrijfsgeheimen vertalen?

Chatgpt genereert tekst/code, dat heeft de AI geleerd door naar miljarden openbare datasets te kijken. Let op, genereert, het doet geen copy paste. Uiteraard kan er wel een functie zijn die precies hetzelfde is als een functie op stackoverflow, maar vraag 1 miljoen programmeurs om een functie te schrijven voor het valideren van een Nederlandse postcode en de kans is zeer groot dat heel veel mensen precies dezelfde code schrijven, zelf bedacht, uit verschillende voorbeelden samengesteld is simpelweg overgenomen van stackoverflow.

Ik ben het dus niet eens dat dit terecht verboden wordt, integendeel. Je moet je werknemers juist opleiden hoe ze met online tooling moeten omgaan, dat lijkt me de juiste benadering van het probleem.

Edit:typos

[Reactie gewijzigd door david-v op 23 juli 2024 16:22]

Of Google Translate omdat mensen daar bedrijfsgeheimen vertalen?
Ken meederen bedrijven waarbij dit inderdaad het geval is. Vaak is er dan wel een betaald alternatief beschikbaar waarbij afspraken gemaakt zijn over wat er met de ingevoerde data gebeurd ( wat overigens weer prima van google kan zijn )
Dit is wel heel kort door de bocht. Hoe vaak gebruikt men Google om naar specifieke informatie te zoeken of om hele lappen teksten te vertalen van bedrijfsgeheimen? Alles wat je online copy paste is een risico, niet alleen bij chatgpt maar werkelijk bij elke online tool waar je tekst in kan plaatsen.
Inderdaad als je 2 seconden nadenkt is het niet moeilijk om te snappen dat elke online tool een risico is, en bedrijven die informatie beveiliging serieus nemen, hebben dus ook allerlei andere publieke sites zoals bijvoorbeeld google translate en soortgelijke vertaalsites, en "handige" online tools om pdf naar word formaat te vertalen etc. geblocked en bieden intern gehoste alternatieven aan voor hun medewerkers.
Dat is precies waarom ik zoveel problemen heb met het maar verbieden van een tool omdat je potentieel bedrijfsgeheimen zou kunnen lekken. Ik gebruik dergelijk online tools altijd met de gedachte dat ik daar niet zomaar iets in kan plakken. De toegevoegde waarde van al deze online tools is voor mij als ontwikkelaar zeer waardevol. Als we dat allemaal gaan dichtzetten omdat er mensen zijn die hele bedrijfsdocumenten copy pasten is dat wel een extreme reactie. Daarom zie ik liever dat er vanuit de werkgever cursussen/e-learnings enz georganiseerd. Dat doen we nu ook met allerlei security cursussen of van die lokmailtjes waar je op klikt en vervolgens een digitale tik op de vingers krijgt omdat je erop geklikt hebt.

Ik ben het er dus mee eens dat er een gevaar is in het gebruik van chatgpt of andere online tools, maar dat verbod....nee, dat lijkt me niet de juiste oplossing. Ik zou het als ontwikkelaar best wel missen moet ik eerlijk bekennen.
- 3: Er komt ook vaak foute info uit die klakkeloos wordt overgenomen. Ook iets wat je als bedrijf moet beteugelen.

Al vind ik niet dat het verboden moet worden. Er moet gezocht worden naar een mogelijkheid om het zo veilig mogelijk te gebruiken. Anders ga je als bedrijf achterlopen.
Lekker conservatief. Nieuwe technieken niet omarmen maar verbieden. Ipv duidelijke werkafspraken om je bedrijfsgeheimen te beveiligen.
Kleine nuance: het gebruik van ChatGPT (of andere AI-diensten) wordt niet verboden, enkel het gebruik van die diensten vanaf zakelijke / corporate devices.
Ipv duidelijke werkafspraken om je bedrijfsgeheimen te beveiligen.
Afspraken zijn leuk, maar als iedereen zich daar aan zou houden zou ook nooit een medewerkers op een fout linkje klikken of een fout bestand openen.
En nu kun je gewoon in je hele netwerk die chatbots blokkeren.
Ik zolit als consultant bij een bedrijf die chatgpt heeft geblokkeerd. Voornamelijk omdat het als bedrijfsrisico wordt geclassificeerd. Het is daar verboden om dit type websites te bezoeken omdat ze als de dood zijn dat er bedrijfsgeheimen uitlekken. En van collega's om me heen bij andere bedrijven hoor ik dezelfde verhalen om min of meer dezelfde redenen. Om diezelfde reden is bijvoorbeeld ook copilot verboden.
Om diezelfde reden is bijvoorbeeld ook copilot verboden
Copilot (for business) maakt al helemaal geen gebruik van de code die je schrijft voor het trainen van de AI, dus dit is ook weer een overdreven reactie. Je zorgen maken om deze tools en vervolgens wel alle code en documenten opslaan in SAAS oplossingen (Azure devops, github enz). Ik zeg het al in een andere post...je kan beter een awareness training geven aan je medewerkers.
GitHub Copilot transmits snippets of your code from your IDE to GitHub to provide Suggestions to you. Code snippets data is only transmitted in real-time to return Suggestions, and is discarded once a Suggestion is returned.
bron
Maakt geen gebruik van code, maar als je je omgeving niet goed afschermt gaat er wel heel veel data richting Microsoft. Heel toevallig is het aantal bits ongeveer evenveel als het bestand dat je opent.
Volgens mij lezen we het anders, het maakt wel gebruik van je code om te bepalen wat de juiste suggestie zou moeten zijn, maar daarna
and is discarded once a Suggestion is returned.
Dus ja, nogal logisch dat je initieel de code heen ziet gaan, dat is letterlijk wat er staat.
De klanten waar ik het over heb draaien alles onpremise. Cloud diensten zijn daar verboden om te gebruiken.
Als dat het geval is dan kan ik me wel voorstellen dat je alle SAAS zoals copilot, sonarcloud, azure devops enz niet toestaat. Dat is dan een keuze van het bedrijf. Of ik daar als techneut achter die keuze zou staan is een ander verhaal en heel erg afhankelijk van de klant ;)

[Reactie gewijzigd door david-v op 23 juli 2024 16:22]

Welke afspraken zouden er volgens jou dan gemaakt moeten worden om te voorkomen dat gevoelige informatie niet gelekt werd?

Als je daar een idee voor hebt die werkt, zou je de eerste zijn :) Groeten, een CISO die recentelijk weer een phishingtest uitgevoerd heeft en er altijd weer mensen gegevens blijven invoeren die niet gedeeld mogen worden.
Markeren en classificeren je data. Laat mensen bewust nadenken over hoe gevoelig de data is die je produceert.
Een gemiddelde DLP oplossing kost al gauw duizenden euro’s, dus niet haalbaar voor een gemiddelde organisatie. En organisatorische controls verliezen het nog altijd van technische controls.
Bij ons is het ook verboden te gebruiken (en niet alleen ChatGPT, ook andere AI diensten) voor projecten voor klanten. We hebben wel commerciële toegang voor interne projecten en experimenten voor wie er mee wil klooien om te leren wat de state of the art is. De reden is dat de copyright-situatie rondom deze diensten nog te onduidelijk is.
Best typisch dit. Aan de ene kant verbied Samsung AI, aan de andere kant zetten ze het standaard op hun telefoons.
Deze vergelijking gaat natuurlijk compleet mank. Dat is hetzelfde als dat je 1 appel en 1 peer bij elkaar optelt, en dan op 2 citroenen uitkomt.

Ten eerste verbied Samsung AI helemaal niet, alleen het gebruik ervan op hun corporate devices. Op prive-toestellen mogen Samsung medewerkers het gewoon nog gebruiken.

Ten tweede: op die telefoons staat, mag ik althans toch hopen, geen gevoelige bedrijfsinformatie van Samsung die op deze manier gelekt zou kunnen worden. Want dáár is deze maatregel dus voor bedoeld: om te voorkomen dat gevoelige bedrijfsinfo op straat komt te liggen, met alle gevolgen van dien.
Daar heb je misschien wel gelijk ik, maar ik vind het toch wel opvallend dat op dezelfde dag deze 2 berichten naar buiten komen. Natuurlijk ligt het eraan wat je er mee doet, en ik begrijp volledig dat Samsung niet wil dat gevoelige informatie naar buiten lekt, maar toch blijf ik het typisch vinden dat het straks wel op vele Samsung toestellen standaard (via de Microsoft bot) erop komt te staan. Ook bij bestaande modellen als ik het zo lees. Er vanuit gaande dat vele medewerkers bij Samsung ook een Samsung device hebben, is de kans groot dat ze met de update ook de AI tool op de telefoon krijgen. Dus dan zullen ze dat pro-actief moeten verwijderen.
Ik begrijp je punt wel, het lijkt inderdaad op een tegenstrijdige zet van Samsung. Maar het is belangrijk om te benadrukken dat de maatregel om AI op corporate devices te verbieden en het aanbieden van AI op hun telefoons twee verschillende kwesties zijn. Het ene heeft te maken met de bescherming van bedrijfsgeheimen, terwijl het andere een optie is die consumenten kunnen kiezen om hun productiviteit te verbeteren. Ik denk dat Samsung ervan uitgaat dat hun medewerkers verantwoordelijk genoeg zijn om ChatGPT niet te gebruiken. Maar het is begrijpelijk dat je het toch een opvallende zet vindt.
beetje overtrokken, er lekt al jaren bedrijfsinformatie via cloud platforms die rijkelijk worden gedatamined en daar komen een hoop bedrijven nu opeens achter met Ai, vroeger bleef dat nog achter de filters van google en facebook die er advertenties op verkochten, maar tegenwoordig is die data ook beschikbaar voor andere bots.
Ik zou "cloud platforms" weglaten hier hoor. Er lekt bedrijfsinformatie, punt. Dat gaat/ging via cds, usb sticks, niet goed beveiligde ftp of websites, malware of recentelijk vaker via ramsomware.
Ja dit willen we bij ons nu voorkomen. Natuurlijk zijn er risico's, met name het lekken van bedrijfsinformatie en het plagiaat probleem.

Maar we moeten vooruit hiermee, achterblijven is geen optie. De concurrenten gaan er ook mee aan de slag en dit heeft de potentie om baanbrekend en efficientieverhogend te zijn en echt de markt op te schudden. Wordt het niet door ons gebruikt dan wordt het wel tegen ons gebruikt (denk ook aan het gebruik bij security, phishing enz). Dus tijd om de risico's zoveel mogelijk in kaart te brengen en te beperken, met het oogpunt om het zoveel mogelijk wel toe te staan met de juiste kanttekeningen. Dit wordt een van mijn taken de komende tijd <3

Wij zijn ook wel bezig aan een interne tool maar als je daar op gaat wachten dan ga je ook al achterlopen.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 16:22]

Ook verboden bij ASML.

Op dit item kan niet meer gereageerd worden.