Microsoft stelt nieuwe AI-richtlijnen op en zet gezichtsherkenning in Azure stop

Microsoft gaat strakkere richtlijnen opstellen voor hoe het kunstmatige-intelligentiesystemen bouwt. In die Responsible AI Standard staan regels voor stem- en gezichtsherkenning. Met dat laatste stopt Microsoft gedeeltelijk, omdat er te veel risico's aan zitten.

Microsoft zegt dat het de meest recente versie van zijn Responsible AI Standard heeft vrijgegeven. Een eerdere versie daarvan was alleen intern beschikbaar. In die richtlijn staat wat Microsoft wel en niet wil en kan doen met kunstmatige intelligentie en de tools die het daarvoor maakt. In die richtlijnen staat hoe Microsoft omgaat met zaken als privacy, beveiliging en betrouwbaarheid, maar ook inclusiviteit en transparantie. De tools die Microsoft bouwt die gebruikmaken van kunstmatige intelligentie, zoals in Azure of Windows, moeten aan al die standaarden voldoen.

Het bedrijf deelt naast de richtlijn ook voorbeelden van waar het tekort is geschoten in de voorgaande jaren. Zo haalt het bedrijf een studie aan waaruit bleek dat de spraak-naar-teksttechnologie die het bouwde, bijna twee keer zo vaak faalde bij gebruikers met een zwarte huidskleur ten opzichte van een witte. Microsoft geeft ook een voorbeeld van hoe het bedrijf extra beschermlagen inbouwde in Azure's Custom Neural Voice, toen bleek dat er een kans was dat die zou worden gebruikt om andere personen te imiteren.

In de toekomst wil Microsoft het minder makkelijk maken om AI-tools in te zetten die voor zulke zaken kunnen worden misbruikt. Een van de opvallendste beslissingen die Microsoft naar aanleiding van de richtlijnen heeft genomen, is dat het bedrijf het moeilijker maakt sommige gezichtsherkenningstechnologieën in Azure te gebruiken. Gebruikers die de Azure Face API, Computer Vision of Video Indexer willen gebruiken, moeten daar specifiek toegang voor vragen. Bestaande gebruikers hebben een jaar de tijd om dat te doen. Ze moeten in dat geval aangeven waar ze de dienst voor gebruiken, daar voorbeelden van aandragen en plannen maken om misbruik te voorkomen. Microsoft kan de toegang bij misbruik intrekken.

Het gaat niet om tools voor gezichtsherkenning in het algemeen, maar specifiek om tools die emoties uit gezichtsherkenningsafbeeldingen kunnen aflezen. Ook het achterhalen van iemands geslacht, leeftijd, lach, gezichtsbeharing of make-up op basis van afbeeldingen wordt aan banden gelegd. Nieuwe gebruikers krijgen daar helemaal geen toegang meer toe. Bestaande gebruikers hebben een jaar de tijd om het gebruik uit te faseren. Standaard toepassingen, waaronder het herkennen van bijvoorbeeld brillen op foto's of het weghalen van ruis en belichting in een afbeelding, blijven wel beschikbaar.

Door Tijs Hofmans

Nieuwscoördinator

22-06-2022 • 10:08

45

Reacties (45)

45
39
21
8
1
13
Wijzig sortering
Dit gaat te ver naar mijn mening dat een cloudprovider Microsoft op Azure bestaande functionaliteiten opeens gaat stopzetten/verbieden... Er zijn verschillende investeringen gemaakt door bedrijven die hierdoor de pineut worden.

Ik ben eigenlijk een liefhebber van cloud oplossingen gelijk Azure/AWS... (minder kosten, gemakkelijker te starten, etc.). Helaas is dit een red flag, hoe veel monopolie dat de provider heeft. Er zou een soort systeem ingebouwd moeten worden (verplicht zelfs door overheden), waarbij gebruikers via een poll-systeem goedkeuren of afwijzen bij breaking changes!
Jij hebt liever een product dat aan alle kanten privacy schaadt of misbruik kan worden begrijp ik?

Als je een legitiem product hebt, zou je al lang over deze zaken nagedacht moeten hebben bij de bouw van jouw product en is er niets aan de hand. Die hele usecase, privacy en beveiligingszaken eromheen heen heb je als bedrijf/aanbieder van een dienst hopelijk al lang over nagedacht. Dus het is alleen zaak van die rapportage van jezelf aanbieden aan Microsoft.

En het is niet zo dat dit op de een of andere dag niet meer werkt. Je hebt even de tijd als je er gebruik van maakt.

[Reactie gewijzigd door SunnieNL op 25 juli 2024 01:31]

Jij hebt liever een product dat aan alle kanten privacy schaadt of misbruik kan worden begrijp ik?
Je hebt een goed, maar ook lastig punt te pakken. Natuurlijk hoort in je zin nog "de privacy kan schaden", maar dat is een detail in deze.

Ik vraag me af hoe we dan om zouden moeten gaan met al die video-deurbellen. Die kunnen de privacy ook schaden en/of misbruikt worden voor welk doel dan ook.

Aan de andere kant heb ik ontzettend mooie AI hardware hier liggen voor €80 waarmee ik icm open source software heel eenvoudig vanaf een aantal meters de hartslag, ademhaling, leeftijd, geslacht en emotionele toestand kan aflezen van een persoon.

Ook maar verbieden dan? Oftewel, waar komt dan de grens te liggen? Als ik dat gebruik bij het interviewen van een sollicitant ga ik denk ik ruim de grens over, maar wat is dan nu wel politiek correct gebruik van dat soort AI hardware/software?
Die videodeurbellen mogen niet zomaar de openbare weg filmen, tenzij iemand op de knop drukt. Eigenlijk moet er ook een melding bij dat je dan gefilmd wordt.
Het is in Nederland niet toegestaan om biometrische gegevens te gebruiken omdat dit de privacy tot in het diepste niveau kan schaden. Werkgevers mogen een biometrische identificatie (gezicht of vingerafdruk) als een alternatief aanbieden als identificatie methode, maar het mag nooit de enige of standaard methode zijn.

Het van afstand aflezen van medische gegevens (zoals je beschrijft) is uitsluitend toegestaan met uitdrukkelijke toestemming van de "patiënt".
Het politiek correct gebruik van AI is duidelijk. Je mag gewoon geen biometrische of medische data opslaan, zonder de betrokken mensen te informeren en om toestemming te vragen. Voor het verkrijgen van toestemming mag geen enkele druk worden uitgeoefend. Ook het gebruik van andere privacy gevoelige gegevens zoals BSN, telefoon nr, kenteken, bankrekening, (etnische) afkomst enz, mogen niet zomaar gebruikt worden.

Een bordje zoals jij beschrijft is eerder gebruikt in reclamepanelen (oa op stations). Het bedrijf heeft dat al vrij snel vrijwillig uitgeschakeld, maar anders zou de AP zeker hebben ingegrepen.
Tusen 2 haakjes, welk hardware bordje is dat? Lijkt me wel geinig om te hebben in de badkamer.
Een Oak D-Lite. Via Kickstarter. Prijs is nu wel ff wat hoger...

- Documentatie
- Kickstarter met voorbeelden
Ahhh, dat ding ken ik stiekem wel, maar helemaal vergeten. Thanks.
Het probleem met techniek (lees techbedrijven zoals Amazon, Microsoft, Apple, Facebook, Google) dat er in rap tempo nieuwe dingen worden uitgevonden en op de markt worden gebracht waar nog geen wetgeving voor is. De impact en de (na) delige gevolgen worden jaren later zichtbaar en dan is het kwaad al geschiedt en kunnen overheden wetgeving gaan verzinnen om er paal en perk aan te stellen. Ik denk regelmatig "als we over een paar jaar terugkijken wij ons afvragen hoe wij dit ooit hebben kunnen laten gebeuren?" Dat een bedrijf als Microsoft hier zijn verantwoordelijkheid neemt kan ik alleen maar toejuichen en zouden meer bedrijven moeten doen. Kortom, er is vaak geen grens bij innovatie, die wordt later pas gesteld.
Helaas is dit een red flag, hoe veel monopolie dat de provider heeft.
Als dat het geval is dan heb je je infrastructuur verkeerd opgezet. Tegenwoordig zou portabiliteit gewoon een basiseis moeten zijn voor al je diensten, dus alles netjes in een (microservice) container draaien en als de ene host ermee stopt ga je naar een andere. Op diezelfde manier, als je gebruik maakt van een API om gezichtsherkenning toe te passen schrijf je je code gewoon zo dat je met een paar dagen (of zelfs uren) werk een andere API kan gaan gebruiken door alleen in de uitgaande kant van je abstractielaag aanpassingen te doen, zonder dat je je hele project hoeft aan te passen.

Als je geen abstractielaag hebt en rust op specifieke containers van een specifiek platform, dan ben je al tegen de standaarden in aan het werken en vraag je er ook om. Nog even buiten de ethische kwestie omtrent gezichtsherkenning op die schaal.
Alhoewel dit wel goed klinkt, denk ik toch niet dat ik me daarin kan vinden, als ik je goed begrijp.
Ik vraag me af in hoeverre je de gebruikers 'meet' om ze, ten opzichte van elkaar, dusdanig stemrecht te geven. Ook vraag ik me af in hoeverre het handig is om de gebruikers de koers van een bedrijf waar zij een (weliswaar) belangrijke dienst afnemen.

Ja, het switchen tussen cloud providers is niet 1-2-3 gebeurd, dat klopt. Toch neem je nog steeds een dienst af in een vrije (?) markt, niet zonder concurrentie. Enkel voor critieke infrastructuur (i.e., banken, géén Netflix) zou ik graag wat meer veiligheid gewaarborgd zien bij cloudproviders, alhoewel dit al best goed gaat volgens mij.
Vandaar dat ik nog steeds pro inhouse ben en je versleutelde incrementals ergens anders opslaat.
misbruik tegen gaan door een cloudprovider is tweeledig. Je wil jezelf indekken, maar ook de gebruikers van je klant. Zie het als een blackbox of speedlimiter op een huurauto of het scannen van cloudcontent op hashes van illegale afbeeldingen.

Wil je dit soort dingen toch doen, dan houden ze je niet tegen om dat op je eigen infrastructuur te doen
Zo haalt het bedrijf een studie aan waaruit bleek dat de spraak-naar-teksttechnologie die het bouwde, bijna twee keer zo vaak faalde bij gebruikers met een zwarte huidskleur ten opzichte van een witte.
Dat gezichtsherkenning vaak beter werkt bij blanken / latino's en aziaten tov donkere mensen dat wist ik al, maar dat dat ook voor spraak geldt is nieuw voor mij :?

Spreekt - volgens de spraak-naar-texttechnologie dan - een donker iemand dan zo anders (Engels) dan een blanke / latino / aziaat ?
Offtopic.

Je p.s. vind ik dan persoonlijk weer erg ongemakkelijk. Ik ken namelijk geen witte mensen, net zo min als dat ik zwarte mensen ken. Ik ken wel mensen met erg weinig en behoorlijk veel pigment, maar kan die met weinig pigment geen wit noemen en met veel pigment ook geen zwart noemen, omdat die benaming simpelweg niet klopt. Daarnaast staan er in je link over waarom dit ongemakkelijk is ook duidelijke tegenargumenten.
Wit of zwart zijn beiden gewoon verkeerde benamingen van iemands huidskleur, een fysieke eigenschap die niets zegt over wie of wat de persoon is.
Wit is in dit geval een typisch gevalletje nieuwspraak, en laten we het boek waar die term uit komt nu eens vooral gebruiken als slecht voorbeeld.
Mijn reactie was offtopic, net als jouw vervolg hier nu op (en mijn reactie wederom).
Een minderheid die iets vervelend vind, is niks mis mee. Je kunt dit kenbaar maken en hopen dat er iets aan gedaan wordt en dat is een prima methode.

Het issue dat ik echter heb, is dat je iemand probeert op te dragen rekening met jou te houden, omdat je iets vervelend vindt zoals je in je P.S. schrijft.
Dat je nu ook weer direct de 'witte cis-gender man' erbij betrekt, geeft aan hoe bevooroordeeld jij in deze discussie staat. Ik probeer duidelijk aan te geven dat wit/zwart naar mijn mening niet alleen feitelijk onjuist zijn, maar ook nog eens irrelevant zouden moeten zijn.

Ik snap heel goed hoe en waarom sommige mensen vinden dat blank een racistische of discriminerende ondertoon heeft. Maar wit is alleen maar een vervanger voor het woord, waarbij de racistische en/of discriminerende ondertoon alleen maar versterkt wordt. In plaats van de situatie te verbeteren (namelijk dat huidskleur of geaardheid of specifieke voorkeuren er niet toe moeten doen), wordt door het gebruik van wit als eufemisme alleen maar meer de nadruk gelegd op datgene dat we volgens mij nagenoeg allemaal willen zien verdwijnen.
Door blank te vervangen door wit, of zwart door groen, veranderd er helemaal niets aan de gedachte die mensen bij de term hebben. Ik denk dat het verstandiger is om te kijken hoe je discriminatie kunt verminderen, door termen als 'witte cis-gender man' te gebruiken, weet ik in ieder geval dat je dat doel in ieder geval niet zult bereiken. Je zult namelijk die zogenoemde 'witte cis-gender man' alleen maar meer in isolatie zetten en daarmee zet je jezelf ook in isolatie, waardoor iedereen meer en meer in de eigen bubbel het eigen gelijk gaat behalen, maar enige vorm van open debat en eerlijke discussie wordt hiermee alleen maar tegengewerkt.
We zijn het voor 85% eens. Dankjewel @walteij.
Waar het mij om gaat, is dat nagenoeg ieder persoon zich as mens identificeert. Dus als ik aan iemand vraag, wil je dat ik je als gekleurd iemand of als mens benader, zal >99% van de mensen zeggen "doe maar mens". Dus ik benader iedereen als mens en beoordeel ze naar wat ze doen, niet op basis van kleur of seksuele geaardheid.
We moeten gewoon stoppen met dat onderscheid maken, we zijn tenslotte allemaal gewoon mensen met allemaal hele kleine genetische verschillen. Hoe meer onderscheid we maken, hoe groter de kloof wordt.

En die enkeling die zich als apache aanvalshelikopter identificeert zal ik dan wel aanspreken met het calsign. ;)
Totaal offtopic, maar we zijn het inmiddels 90% eens met elkaar.

Roger and out, PH-SOXX.
Misschien was een betere benaming voor blank of witte mensen een kleurling te noemen.Die kunnen blauw, geel , rood of bruin worden of zelfs zwart maar dan is het in beste geval een stukje moeten gaan missen.Omwille een witte cis-gender man te noemen doen ze in feite het zelfde, hokjes creëren.
PS: Ik en velen met mij vinden het vervelend dat je "blank" gebruikt in plaats van "wit". Zou je hier rekening mee willen houden? Je kan de geschiedenis en context vinden in dit Wikipedia artikel: https://nl.wikipedia.org/...it_in_de_Nederlandse_taal
"Your triggers are your responsibility. It isn't the world's obligation to tiptoe around you." (n.n.)

Met andere woorden, grow up. Het is niet omdat jij (en zogezegd "velen met jou") iets vervelend vindt, dat de wereld zich moet aanpassen zodat jij niet "offended" wordt. Blank en wit zijn beide neutrale worden, de emotionele lading geef je er helemaal zelf aan. Dus ik ("en velen met mij") gaan hier helemaal geen rekening mee houden. Sterkte nog met je offended-gevoel, het gaat wel over.

[Reactie gewijzigd door Mr777 op 25 juli 2024 01:31]

Ik zou niet zeggen dat de technologie een discriminerende bias heeft, maar eerder dat diegene die de selectie heeft gemaakt waarop de AI getraind wordt dat heeft. Die heeft blijkbaar verhoudingsgewijs meer mensen uit de witte accent-taal-groep geselecteerd dan die uit de zwarte (of willekeurige andere) taalgroep geselecteerd.

En dat input met een bias tot output met een bias leidt, lijkt me niet zo verwonderlijk
Dan wijs ik er ook graag op dat input met een bias niet alleen leidt tot output met een bias, maar ook dat het systeem als gevolg van die input zal zijn geoptimaliseerd voor die bias en dus zelf ook bias zal beginnen te vertonen.
Een huidskleur omschrijven als 'wit' is in Vlaanderen nog erg nieuw en komt bij veel mensen over als onwennig en politiek correct.
Wat is die P.S. nu weer... Alsof jullie zwartepietenrellen er al niet veel te ver over gingen. Blijf daar ook maar ver weg mee uit België :p
Spraak-naar-tekst technologiën hebben een discriminerende bias.
En die conclusie is dus verkeerd.
De technologiën hebben een bias naar netjes uitgesproken taal.

Als je met een zwaar accent praat, dan heeft de techniek daar meer moeite mee. Dat is een gigantische open deur en heeft geen zier te maken met racisme.
Uit je eerste link:
These error rates were highest for African American men — particularly if they used a lot of vernacular.
Een text-to-speach technologie voor Nederlands zal ook falen als de jeugd hun straattaal gebruikt, of wanneer iemand uit Twente zijn lokale dialect gebruikt.
Dat is ook geen discriminatie van jongeren of Twentenaren.
Wat is netjes uitgesproken taal? Dialecten zijn van alle tijden en staan op geen enkele manier aan iets niet netjes uitspreken. Er zijn mensen die opgegroeid zijn in niks anders dan een omgeving met een dialect (Limburg, Schotland, Upper Midwestern).

Als je mijn bericht en artikelen goed gelezen zou hebben heb ik het over een discriminerende bias, en de gevolgen hiervan zijn dat raciaal to correleren.

Ten slotte quote je het artikel en een verwijzing naar volkstong, waarmee je ook weer implicieert dat accenten of dialecten niet netjes zijn. Wat je bedoelt te zeggen is dat dit soort systemen getrained zijn op mensen zonder accent of dialect.
Die spraakherkenning werkt nog veel minder als je er Nederlands tegen spreekt in plaats van Engels. En als hij al Nederlands kan begrijpen, moet je eens Fries of West-Vlaams beginnen spreken.

Heeft die spraakherkenning dan een discriminerende bias tov mensen die Nederlands praten en is dat nog verder raciaal te correleren tussen mensen van Friesland en West-Vlaanderen?

Of kunnen we gewoon zeggen dat het systeem niet overweg kan met dialecten en/of de diversiteit die taal rijk omdat we nog nooit een spraakherkenning hebben gehad die daadwerkelijk deftig werkt?
Een taal is iets anders dan een dialect en iets anders dan een accent. Het grootste deel van de mensen die (native) Engels spreekt doe dat met een accent. Niks mis mee, en is veel gevallen - om jouw woorden te gebruiken - netjes.

Echter, als je een spraak-naar-tekst oplossing bouwt, en daarbij deze alleen traint op een bepaalde demografie omdat dat de demografie is waar de bouwers alleen aan blootgesteld worden, en dat zich dan gaat nestellen in het AI-model, dan wordt er inderdaad gesproken over een discriminerend model. Er zijn tal van onderzoeken en papers geschreven hierover.

Het is niet gek dat dit gebeurd, maar het belangrijk dat we ons daarvan bewust zijn, want dat is de enige manier om ervoor te zorgen dat we het volgende model wel op een inclusievere manier trainen. Het zou tenslotte zonde zijn als alleen randstedelingen goed gebruik kunnen maken van dergelijke technologie. ;-)
De term vernacular slaat niet op accenten, maar op dialecten!

Als iemand een spraak-naar-tekst oplossing maakt voor Nederlands dan doe je dat op ABN.
Iedereen leert ABN op school. En iemand die ABN spreekt met een accent word dan ook goed herkend.

Maar een dialect is wat anders. En niemand in Nederland zal ooit roepen dat zo'n tool discrimineert als het niet werkt met het Twents dialect.
Dat is zodanig afwijkend van ABN dat het volstrekt vanzelfsprekend is dat de tool dat dan niet herkend.
Het zou tenslotte zonde zijn als alleen randstedelingen goed gebruik kunnen maken van dergelijke technologie. ;-)
Mensen die met een dialect praten weten dat ze niet alleen voor spraak-naar-tekst oplossingen moeilijk te verstaan zijn, maar ook voor Nederlanders die dat dialect niet kennen.
Daarom spreken ze dan ook ABN als ze met mensen buiten hun regio praten en zullen ze ook ABN praten als ze een spraak-naar-tekst oplossing gebruiken.

Als ze dat niet doen en vervolgens de maker van de spraak-naar-tekst tool discriminerend vinden dan lacht iedereen ze uit.
Dan heb ik een leuke voor je:

Data verzameld uit de tijd van iPhone 4 (2010) waarbij Oxford Wave Research (UK) samen met het Netherlands Forensic Institute hebben gewerkt aan spraakherkenning van telefoongesprekken.
Opmerkelijk daarbij is dat het hier gaat om een opvallende doelgroep: Laag geschoolde mannen in Amsterdam, waarvan 50% native, 25% een Turkse achtergrond heeft, en 25% met een Marokkaanse achtergrond.

https://www.oxfordwaveres...IDA1_DvdV_et_al_paper.pdf
Je hebt er een jaar de tijd voor vanaf vandaag. Als je gewoon een legitieme use case hebt lijkt me dit echt geen probleem. Service van Azure is echt wel anders dan van Windows, helemaal bij grote accounts.

Mocht je geen legitieme use case hebben dan heb je een jaar de tijd om over te stappen :)
Je zegt het eigenlijk al "helemaal grote accounts", maar als kleine gebruiker ben je echt wel van de standaard service desk afhankelijk. Weet niet of je die ooit hebt moeten bereiken, maar onmogelijk is wel een woord wat bij mij hier in mij opkomt.

Wat ethisch verantwoord is wordt hier dus nu bepaald door Microsoft en niet door wet en regelgeving. Waarbij grote bedrijven ook nog eens een voorkeursbehandeling genieten.

[Reactie gewijzigd door ro8in op 25 juli 2024 01:31]

Ik denk dat er genoeg mensen zijn, voornamelijk consumenten, die liever zien dat het deze richting op gaat dan de NSO/Pegasus richting.
Ben ik het niet mee eens, dit is niet specifiek voor clouddiensten. Dat kan ook met andere gelicenceerde producten. Eerlijk gezegd vind ik het ook een goede stap en is een jaar billijk om aan te tonen dat je de technologie gerechtvaardigd wilt gebruiken. Bij dit soort technieken ligt misbruik op de loer met mogelijke grote legale gevolgen. Let wel, dat gedeelte wordt eruit gehaald, waarmee discriminatie erg snel gebeurd. Ik heb liever dat het gereguleerd wordt, dan compleet vrijgegeven.
Waar de grens precies ligt en wat legitiem gebruik is, dat is een andere discussie, alsmede wie die bepalen.
En als je product gewoon aan de responsible ai richtlijnen voldoet is er niets aan de hand. Alleen maar goed dat je hier over moet gaan nadenken voor je eigen product.

Eerst zit iedereen te klagen dat de overheid je overal volgt, en nu zorgt Microsoft dat die functies niet zomaar gebruikt kunnen worden en is het weer niet goed.

Zorg dat je product voldoet aan bepaalde richtlijnen van AI en GDRP en je hebt ook niet zo'n groot probleem. Elke fabrikant zou zich daar toch al aan moeten houden.
Als je zo op het grensvlak opereert van wat maatschappelijk en moreel twijfelachtig gevonden wordt kan je jezelf ook afvragen of je product (al dan niet op termijn) nog bestaansrecht heeft. Daarnaast is het een keuze geweest om je volledig afhankelijk te maken van een enkele partij...
Als je product voldoet aan de richtlijnen en onder ethisch gebruik valt lijkt me dat geen probleem. Als je niet door die controle komt dan moet je maar een ander product gaan maken waarmee je geen zware inbreuk maakt op de privacy van je gebruikers.

Als Clearview (bij wijze van spreken) hiermee ineens niet meer hun tool kan verkopen dan is dat alleen maar positief. Niet leuk voor Clearview, maar wel leuk voor de mensen die hiermee worden lastiggevallen.

Microsoft neemt gewoon de positie in van 'hier werken we niet aan mee', dat is niet anders dan dat je een website hebt die ander materiaal host dat tegen de voorwaarden van je hostingprovider in gaat en dat die zegt dat ze je geen diensten meer willen verkopen.
en onder ethisch gebruik
Kunnen we even de marketing van Microsoft achterwege laten?

Microsoft kiest zelf wat door de beugel kan en dat is niet per definitie maatschappelijke standaard.

Ze ontwijken belasting waar kan, besteden werk uit aan lagere lonen landen ivm lagere salarissen, kopen eigen aandelen in om de winst te drukken en waarde van aandelen op te pompen.
Als dat bedrijf enigzins iets van ethiek kent, dan hadden ze dat allang toegepast.


Daarnaast is het maar afvragen wat de werkelijke reden is van deze beslissing.
nieuws: Privacytoezichthouders pleiten voor Europees verbod op gezichtsherken...
Zomaar gezichten verwerken is al verboden in veel landen en steeds meer landen gaan er strenger op toezien,
als het dan alsnog kan gebeuren op servers van Microsoft zijn ze hier medeplichtig aan. De kans dat Microsoft echt specifiek gaat controleren en toezien op inhoud, die kans is klein.

Het uitsluiten van hun diensten is kwa aansprakelijkheid het beste.
Als je als bedrijf gebruik maakt van hun cloud kun je het niet zeggen, als microsoft er toch achterkomt gooien je ze er af.
Ik ga er niet van uit dat een winstgedreven bedrijf als Microsoft ernstig knellende ethische richtlijnen gaat bedenken 'omdat het kan'. Ze zien hooguit dat ergens maatschappelijk zoveel weerstand tegen is dat ze de negatieve publiciteit niet willen dragen en kunnen natuurlijk de bui wel zien hangen dat er wetgeving komt als de industrie niet vrijwillig een beetje inbindt. Het kan in je voordeel zijn daar dan iets op vooruit te lopen.

Als bedrijf is het gewoon nodig een plan B te hebben voor als een leverancier verzaakt. Er zijn vast meer aanbieders van soortgelijke technologie. Ook als Microsoft bijvoorbeeld de prijs vertienvoudigd gaat dat impact op je business hebben. Als je daar weigert over na te denken is dat je eigen verantwoordelijkheid.
Wat ethische richtlijnen zijn vind ik niet aan Microsoft om die te bepalen.
Waarom niet? Microsoft bepaalt toch lekker zelf met wie ze zaken doen?

Je bent absoluut niet afhankelijk van hun cloud diensten, tenzij je daar zelf voor kiest

Op dit item kan niet meer gereageerd worden.