Amerikaanse rechter weigert video als bewijs vanwege gebruik AI-software

Een Amerikaanse rechter heeft geweigerd dat een video als bewijs wordt gebruik in een rechtszaak vanwege het gebruik van AI-software bij het bewerken van de video. De aanklager wilde dankzij upscaling de verdachte duidelijker in beeld brengen.

De aanklager gebruikte Topaz Video AI om de video te upscalen, meldt NBC News. De software van het Amerikaanse bedrijf herkent gezichten en vult vervolgens details aan die niet in het oorspronkelijke beeld zaten. Dat is problematisch, zo redeneert de rechter, want de software 'leunt op vage methoden om te bepalen wat het AI-model denkt wat we moeten zien', aldus de rechtbank.

Het is voor zover bekend voor het eerst dat een Amerikaanse rechter zich buigt over bewijs dat met AI is aangepast. "Dit hof oordeelt dat toelating van dit door Al aangepaste bewijs zou leiden tot verwarring van de zaak en een vertroebeling van ooggetuigenverklaringen, en zou kunnen leiden tot een tijdrovende rechtszaak binnen een rechtszaak over het niet te checken proces dat wordt gebruikt door het AI-model."

De aanklager had de software ingeschakeld, omdat het ging om een vage video gemaakt met een telefoon van een schietpartij in 2021. Door gebruik van de software wilde de aanklager duidelijker maken dat het inderdaad ging om de verdachte. Die ontkent de schietpartij niet, waardoor het bewijs vermoedelijk in de rechtszaak ook niet noodzakelijk zou zijn. Deze uitspraak kan dienen als jurisprudentie in andere Amerikaanse zaken, maar het zal per zaak en bewijsstuk af kunnen hangen hoe rechters dat wegen.

Topaz Video AI 4
Topaz Video AI 4 - geen beeld van de verdachte, maar beeld van Topaz zelf

Door Arnoud Wokke

Redacteur Tweakers

04-04-2024 • 19:53

97

Reacties (97)

97
97
56
12
0
29
Wijzig sortering

Sorteer op:

Weergave:

De foto onder het artikel kan nogal misleidend zijn. Wanneer de originele foto al van redelijke kwaliteit is, zal het resultaat van de AI verbeterde versie weinig verschillen vertonen. Echter, bij een bron van lage kwaliteit zal de AI meer details moeten invullen, wat kan leiden tot grote afwijkingen in het eindresultaat ten opzichte van de werkelijkheid.

Het zou beter zijn om de huidige voorbeeldfoto te verwijderen en/of een extra voorbeeld met lagere kwaliteit toe te voegen. Door alleen deze voorbeeldfoto te gebruiken kan het de suggestie wekken alsof de uitspraken van de rechter ongegrond zijn.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:08]

Ik zou zelf deze van "Witte Obama" gebruiken, een duidelijker voorbeeld van wat er mis kan gaan:
https://pbs.twimg.com/media/Ea9GZUbXsAEORIb?format=jpg

[Reactie gewijzigd door Arnoud Engelfriet op 22 juli 2024 18:08]

De foto onder het artikel is het ene, maar de ‘witte Obama’ is weer het andere uiterste. Het hangt helemaal af van de kwaliteit van het originele beeld, hoeveel het beeld ‘verbeterd’ wordt en op basis van welke data het ai getraind is. Want dat kan net zo goed een zwarte Obama uitrekenen/uittekenen, maar niet als het getraind is met alleen maar witte mannen, zoals hier het geval lijkt te zijn. Dat wil natuurlijk niet zeggen dat alle ai-modellen tot in de eeuwigheid op deze manier de mist in gaan.

Overigens denk ik dat goed is om te vermelden dat in werkelijkheid er nooit iemand worddt veroordeeld, puur en alleen omdat hij op een video staat. Een openbaar aanklager zal er niet over piekeren een zaak te beginnen met alleen een video als bewijs. Er moet een motief, gelegenheid en voldoende onderbouwend bewijs zijn en dat kan nooit alleen een video zijn.
Want dat kan net zo goed een zwarte Obama uitrekenen/uittekenen, maar niet als het getraind is met alleen maar witte mannen,
Je mist het belangrijkste punt.
Het gaat er niet om of die AI getraind is met witte mannen. Dat hoeft bij deze AI niet eens geval te zijn, hoewel jij dat wel aanneemt.

Het punt is dat die foto van de witte man gewoon heel goed overeen komt met de lage resolutie foto van Obama.
Het punt is dat die lage resolutie foto zowel Obama als die witte man zouden kunnen zijn. Dat verschil kunnen we niet bepalen. Daarvoor is teveel informatie uit de foto afwezig.
En ook een AI kan dat niet bepalen, maar die kiest wel iets. En de kans is veel groter dat ie verkeerd kiest, dan goed kiest.
Want er zijn niet twee gezichten die met die blokkerige foto overeen komen, maar vele tienduizenden!
Dat begrijp ik wel, maar ik heb moeite te geloven dat er een ai die zo goed foto’s bij kan werken, geen beter gelijkende foto kan produceren, tenzij hij gewoon niet genoeg basismateriaal heeft. Sowieso de huidskleur, maar ook is de mond van het origineel helemaal dicht of in ieder geval verder dicht dan bij de ai versie, het linkeroor glimt veel lichter etc. Maak de foto-set maar eens kleiner in je browser of ga op een afstandje staan, dan zie je dat er best veel verschil in zit.

Maar daarnaast ben ik het helemaal met je eens dat hoe meer ruimte er is binnen de gegeven marges, hoe meer het beeld dus ook kan afwijken of beter gezegd kan variëren. Je kunt je dan ook afvragen in hoeverre je iets hebt aan dit soort ‘verbeterde’ beelden.
Overigens denk ik dat goed is om te vermelden dat in werkelijkheid er nooit iemand worddt veroordeeld, puur en alleen omdat hij op een video staat.
Gelukkig niet, maar voor verzekeringskwesties ligt dit toch anders. En naarmate AI beter wordt, is het (ondersteunende) bewijs elke keer minder betrouwbaar.
Als je 1 pixel op gaat rekken naar 10x10 à 20x20 oftewel wel 100 tot 400 keer zoveel pixels zoals bij het Obama-voorbeeld het geval lijkt te zijn, is er veel ruimte voor interpretatie. Hoe groter dat verschil, hoe meer afwijking er mogelijk is.

Je zou hier regels voor kunnen bedenken. Bijvoorbeeld de ai niet alleen de meest waarschijnlijke uitkomst te laten genereren, maar ook een aantal extremen. Dan heb je al mens al een realistischer idee van hoe accuraat de voorspelling (want dat is het in feite) is.
Mijn probleem is juist dat als AI echt onwijs goed wordt, dat je een afbeelding als bewijs gaat gebruiken zonder dat je vertelt dat dit gemanipuleerd is. Zolang iedereen eerlijk is, is er geen probleem en van het OM mag je zoiets aannemen, maar in civiele zaken of verzekeringszaken kun je rare dingen verwachten. En dan is het mogelijk dat afbeeldingen, ook als ze niet gemanipuleerd zijn, worden afgewezen.
Zelfs al is de afbeelding van goede kwaliteit (wat waarschijnlijk niet zo is, anders gebruik je geen upscaling), dan nog worden details ingevuld. De verdachte kan er ineens 10 jaar jonger uitzien omdat details op de huid verkeerd worden ingevuld.

[Reactie gewijzigd door Wolfos op 22 juli 2024 18:08]

Een opname als (ondersteunend) bewijs wordt steeds minder betrouwbaar naarmate de AI-techniek voortschrijdt. Elke verandering aan een opname doet de werkelijkheid geweld aan.
Audio als bewijs heeft ook hetzelfde probleem. Er zijn al mensen die bij hun bank hebben aangegeven dat transacties via hun rekeningen alleen nog in persoon verwerkt mogen worden. Dus deze persoon bij een balie verschijnt, zich identificeert en dan aangeeft wat er afgeschreven dient te worden.

Want zij hebben het vermoeden dat hun geld/positie in gevaar is gekomen door personen die via AI hun rekening of leegroven of betrekken in sjoemele zaken, waardoor zij hun positie kunnen verliezen.

Met de voortgang van AI gaan we in sommige gevallen zo'n 30 tot 40 jaar terug in mate van progressie. Maar dat krijg je ervan als video, audio en text zonder (menselijke) moeite geproduceerd kunnen worden. Het verliest bijna alle waarde die de samenleving in huidige vorm daaraan heeft kunnen geven.

Fijn allemaal weer uren wachten in de rij voor een balie om ook maar iets (bank/overheid/verzekering) geregeld te krijgen.

AI klinkt utopisch, zo word het ook verkocht aan jan publiek. Heb er zelf mijn twijfels over. Ja, het is voor een heleboel zaken heel makkelijk en productief. Maar het vertrouwen op video/audio voor persoonlijke zaken is wel weg.

Ach ja, zolang men met AI mooie(re) fotos en videos kan maken en stem zo kunnen aanpassen dat men klinkt als een competente zanger/zangeres voor Instagram en/of OnlyFans, who cares...
Met de voortgang van AI gaan we in sommige gevallen zo'n 30 tot 40 jaar terug in mate van progressie.
Hm, vooruitgang die ons terugwerpt in de tijd. Dat is iets om in mijn mening over AI mee te nemen. Ik kan mij voorstellen dat er direct nog veel meer voorbeelden zijn.
Voor de duidelijkheid, beeldbewerking is normaal in rechtszaken en kan ook prima rechtmatig zijn. Het wordt vaker gebruikt. Recentelijk kwam ik het nog tegen in de rechtszaak tegen Hannah Gutierrez Reed (bekend van het schietincident op een filmset).

Het verschil zal 'm zitten in dat daar (in de sector) standaardsoftware werd gebruikt met verifieerbare algoritmes, die ook door meerdere experts gebruikt konden worden met dezelfde resultaten.
Dat is met AI dus niet mogelijk, want niemand weet wat de AI nou daadwerkelijk doet om het beeld te bewerken. Heeft het wat lijntjes verscherpt, of heeft het een gezicht ingevuld a.d.h.v. een test set van 8000 gezichten van bezoekers van een voetbalwedstrijd in Schubbekutteveen? Dat is in de rechtbank niet te onderbouwen, en daar zal de crux zitten.
Het doet me denken aan de mogelijkheid van hallucinatie door de AI, waardoor er een bekende acteur verscheen op een plek doordat de AI dacht dat de reflectie daar een gezicht was.

Heel verstandige rechter, denk ik.
Heel verstandige rechter, denk ik.
De rechter bedacht dat het een rechtszaak in een rechtszaak zou gaan worden en ik verwacht zoiets ook. Maar een andere rechter kan heel anders gaan oordelen. Ik vraag mij af of deze afwijzing werkelijk als jurisprudentie kan dienen, zoals in het artikel staat, omdat het geen vonnis is.
En ik vind het ook een verstandige beslissing van de rechter.
Conceptueel vind ik de gedachte dat AI uitkomsten praktisch nooit tot bewijs kunnen leiden, een heel goed uitgangspunt.

Het mag van mij best een tool zijn voor opsporing, denk aan anomalie detectie voor handel in voorkennis. Maar daarna moeten er gewoon echte bewijzen worden opgespoord.

Het was wel geen ai, maar in australie hadden we een veroordeling voor moord op basis van de kans dat drie kinderen op dezelfde wijze dood gingen, die later een zeldzame ziekte bleken. En zo zijn er meer zaken geweest. Die daarna onterecht bleken, soms na jaren.
Dat kansberekening een slechte basis is, blijkt uit de onterechte veroordeling van Lucia de Berk uit Den Haag. Hoef je niet eens voor naar Australië.
Ik ben niet zo thuis in AI. Maar is het niet mogelijk dat AI een foto / filmpje upscaled en vervolgens aangeeft wat er gewijzigd is, waarom, op basis waarvan, wat de input is geweest, etc. ?
Dat is zeker mogelijk, zelfs zonder dat de AI dat verteld, leg het originele beeld er maar naast en toon de verschillen. Maar dan nog vertroebelt het de zaak. Is het een simpel algoritmische bewerking om dingen wat te verscherpen? Of is het erbij verzonnen? Als de ai een rapport daarover levert, dan krijg je een lading weights, dat is niet bepaald vatbaar voor mensen (zeker niet een jury ofzo).

Maar dat is achteraf de zaken toelichten. het gevaar zit hem in de stemmingmakerij, sommige dingen kunnen wellicht net iets meer aangedikt zijn om een iets anders beeld te tonen, en dat hoeft niet eens met opzet. Zie het gedoe met Google z'n Gemini z'n "wokeness", zul je zien dat AI je beelden loopt te verscherpen en ze meer gekleurd en aziatisch eruit te laten zien, want de bot is getrained om inclusive te zijn.

Dat soort invloeden wil je helemaal niet hebben in bewijsmateriaal. Dan kan je keurig een rapport leveren over hoe er is geprompt en met welke weights er tot dit resultaat is gekomen. Maar dat zegt allemaal niets zonder de complete learnset van de bot te gaan analysrren. Dat is onbegonnen werk.

Ik ben het daarom wel eens met deze rechter dat je dit uit principe al niet moet accepteren.
Ik vind ook het gebruik van algoritmes twijfelachtig. Op zijn minst iets om heel voorzichtig mee te zijn. Verscherpen klinkt goed, maar als je dat nodig hebt dan is het origineel waarschijnlijk erg slecht. Dan kan het net zo goed ruis of een andere artefact zijn dat je "verscherpt" tot iets dat op een verdachte, wapen of wat dan ook lijkt.
Absoluut, maar algoritmes moet je altijd wel tot een zekere mate toelaten, want dat doen camera's zelf al als ze aan het opnemen zijn, kleurcorrecties, en zeker moderne mobieltjes met zo'n camera eiland die meerdere dieptes samen combineren tot een scherpere foto. Of enkel alleen JPEG compressie al. Allemaal dingen die aan het bronmateriaal zitten. Je moet ergens een grens trekken tot waar het dan wel ok is, en AI is in ieder geval een brug te ver want je hebt geen idee wat er mee gedaan wordt. Dat is soms ook lastig zeggen als een foto meer dan ineens door jpeg compressie is gehaald bijvoorbeeld, maar je hoeft je dan in ieder geval geen zorgen te maken of die compressie tot een bepaalde bias in het plaatje zorgt (tenzij opzet, natuurlijk). Bij een AI kan je er haast wel zeker van zijn dat er ergens een bias in zit.
Inderdaad, valt te zien welke soort bewerking er is,

Zelfde met een foto van mijn overgrootmoeder voor op haar graf,
bij de vernieuwing van het kruis wilden we een nieuwe foto,

de beste foto die we hebben is op verschillende plaatsen bekrast en onduidelijk,

Ik heb toen ook wat "gratis" AI er op los gelaten en ik kon tot een zeer mooi resultaat komen dat het een foto was die vandaag zou kunnen genomen zijn, MAAR , we hebben na een stemming in de familie uiteindelijk toch gewoon de beste foto genomen waar enkel de krassen en vlekken uit gehaald zijn,

reden : Oma had wel plots terug mooie ogen en mooie lippen, maar het waren niet HAAR ogen en lippen, dat is wat dus AI kan doen, gewoon de stukjes nemen die er zijn, en dan kijken welke van de 1 miljard ogen hij op file heeft het mooiste zouden zijn hierbij,

is dus mooi, maar niet correct,

en daar begrijp ik de rechter hier wel in, krassen, vuil en ruis weghalen met fotobewerking (met of zonder AI) is goed, maar je mag niet te ver gaan, of je gaat een totaal andere persoon krijgen.
haha,

neen, bij overgrootoma hadden we het knopje "boobjob" wel niet op gezet :)
ENHANCE! Maar daarom moet je bij digitaal forensisch onderzoek ook al heel duidelijk aangeven welke bewerkingen je gedaan hebt om op je conclusie te komen. Zoiets zal voor beeld & geluid ook moeten gaan gelden.

[Reactie gewijzigd door BCC op 22 juli 2024 18:08]

Je kunt een algoritme als bijvoorbeeld bi-lineaire interpolatie waarbij wiskundig aantoonbaar is wat er gebeurt per pixel prima gebruiken.
maar een fractal interpolatie word al een stuk lastiger.
Maar AI die op basis van andere fotos dingen gaat invullen is toch wat anders.
Hoewel in het geval van een film, waarbij meerdere frames beschikbaar zijn, het wel zou kunnen, maar zie dat maar juridisch te bewijzen.
Sluit even AI uit en denk na over een rechtzaak waar de dader te zien is maar slechts 20 pixels groot is in de video. Je kan daar niets nuttigs uit halen behalve enigsinds of de verdachte donkere of lichte kleding aan had. Stel dat de aanklager vervolgens die video 'uitvergroot' en gewoon het gezicht en de kleding van de verdachte er overheen plakt. Een goeie rechter zal het direct verwerpen, maar met een jury rechtspraak kan je wel een deel van de jury met zo'n actie beinvloeden. En ook wanneer de rechter zegt dat ze het niet mogen gebruiken dan blijven die beelden nog altijd in hun geheugen achter, en kan zorgen voor het verschil tussen vrijspraak of de doodstraf in de VS.
Of het tegenovergestelde, dat een video helemaal niet zo noemenswaardig bewerkt is. Maar er is gezegd dat deze video met AI bewerkt is, "dus is het nep". Het brengt extra speculatie met zich mee over een stof waar het onmogelijk van te verwachten is dat de doorsnee mens (jury) verstand van heeft. Zelfs een expert zal niet precies kunnen toelichten hoe en waarom die media op die manier bewerkt is.

Het is een prima tool voor artistieke doeleinden waar de enige criteria is "ziet het er goed genoeg uit?" is (upscaling in videogames bijv). Maar er valt geen waarheid uit te halen.

Dit voelt ontzettend als de film Enemy of the State, waar ze met een of ander fancy 3d software en camerabeelden om een hoekje zien dat Will Smith een pakje toegestopt krijgt. Dat was toen al Hollywood bullshit, maar nu begint dat dus realiteit te worden.
Ik ben geen expert, maarr volgens mij worden dit soort bewijsstukken niet direct aan de jury getoond. Eerst gaat de rechter om tafel met de aanklager en de verdediging om te bepalen welke bewijsstukken wel en niet toelaatbaar zijn. In dat stadium wordt bepaald wat de jury wel en niet te zien krijgt.
Alles kan theoretisch, maar een AI upscaler is geen chatgpt waar je opdrachten aan geeft en die terug praat. Het is gewoon een algoritme dat patronen in beeldmateriaal herkent, het is niet intelligent en kan geen "redenen" aangeven.
Ik wil je complimenteren op je (bedoelde? onbedoelde?) meta-grap: die dataset van "8000" bezoekers zijn natuurlijk duizend keer dezelfde 8 bezoekers, want zo populair is 'FC Schubje' natuurlijk niet.

Briljant meta-commentaar op zowel de overdreven marketing van AI, de twijfelachtige statistische onderbouwing, de slechte kwaliteit van trainingsets, en het gebrek aan diversiteit daarin.

[Reactie gewijzigd door juke1349 op 22 juli 2024 18:08]

Die tijd is helaas voorbij. Alles wat je met een moderene telefoon aan opnames maakt is fake.
Als op deze manier bewerkte beelden wel toegestaan gaan worden dan heb je binnen een paar maanden bedrijven die zich hierin specialiseren. Enkele daarvan zullen geheid beelden van recent gearresteerden gebruiken om hun model een voorsprong te geven.
Het is gewoon vervalsing van bewijsmateriaal en dat is strafbaar! AI verzint zelf de details erbij en zo kan je een mens op iedereen laten lijken.
Ik moet altijd vreselijk cringen van die Amerikaanse series waar ze een 360p straatcamera inzoomen, ontblurren, enhancen en upscalen om het beeld haarscherp te krijgen. Dat de rechter dit van de hand wijst is een goede ontwikkeling. AI is een black box en kan zeer negatieve schade aanbrengen in een rechtszaal.
Helemaal met je eens, op deze manier is bewijs altijd naar de hand van de aanklager te zetten. Als “AI” in staat is extra details in te vullen, wordt de lijn tussen echt en nep compleet weggehaald en kan je er u tegen zeggen dat steeds meer details door AI ingevuld kunnen worden.

Dit is geen rasisme vanuit mijn kant, maar helaas hoe de wereld nog steeds in mijn kant, dus neem het volgende voorbeeld mij alsjeblieft niet persoonlijk kwalijk.

AI leert van het internet en andere beelden, omdat er helaas ene wijdverspreid idee bestaat dat mensen met een immigratie achtergrond sneller crimineel zijn, zal de AI bij het invullen van details er misschien voor kiezen om sneller details van mensen met deze achtergrond te gebruiken.

Een video met een schietpartij waarin de huidskleur door lichtinval of andere oorzaken niet geheel duidelijk zijn, zullen misschien dus door software bepaald gaan worden.

Ik ben persoonlijk dus ook zeer blij met de uitspraak van de rechter (los van het feit dat deze persoon al bekent had en gewoon een staf verdient uiteraard)
Bewijs hoort ten alle tijden echt bewijs te zijn.

Ps dit staat los van het gebruik van AI om beelden te analyseren. Als de opdracht voor de AI is “ik zoek deze persoon tussen tientallen uren aan video en/of duizenden foto’s” dan vind ik het wel toelaatbaar.
Maar dan is er alsnog een persoon die de resultaten zal moeten controleren.
Dit is geen rasisme vanuit mijn kant, maar helaas hoe de wereld nog steeds in mijn kant, dus neem het volgende voorbeeld mij alsjeblieft niet persoonlijk kwalijk.

AI leert van het internet en andere beelden, omdat er helaas ene wijdverspreid idee bestaat dat mensen met een immigratie achtergrond sneller crimineel zijn, zal de AI bij het invullen van details er misschien voor kiezen om sneller details van mensen met deze achtergrond te gebruiken.

Een video met een schietpartij waarin de huidskleur door lichtinval of andere oorzaken niet geheel duidelijk zijn, zullen misschien dus door software bepaald gaan worden.
Je legt hier de vinger op de zere plek. Wat je beschrijft is een confirmation bias geaard in racisme.

Feitelijk is de AI in dit geval een reflectie van een maatschappij die lijdt aan diepgeworteld (institutioneel) racisme.
offtopic:
Die upscaler weet natuurlijk niks ervan dat die een foto van een verdachte is, dus in deze context is het volstrekt irrelevant. Er wordt simpelweg gevraagd om een foto te upscalen. Sterker nog, omdat er veel meer fotos van blanke mensen op internet staan dan ze verhoudingsgewijs als deel van de bevolking uitmaken is de kans in dit geval juist groter dat die upscaler de persoon op de foto blanker laat lijken waardoor niet-blanken juist een lager risico op veroordeling zouden lopen. Jullie gaan hier volgens mij met de houding de redenering in dat die discriminatie er toch altijd moet zijn bij AIs en dat die altijd nadelig moet uitpakken voor minderheden. Zo simpel is de wereld niet.


Dat neemt niet weg dat het hoe dan ook een goede zaak is dat AI upscaling in de rechtbank geen plaats heeft. Het doet me een beetje denken aan delen van "forensisch" sporenonderzoek waarbij in het verleden honderden kogels met een pistool afgevuurd werden tot er eentje was die de microscopische sporen van de kogel bij het plaats delict had en vervolgens door de "expert" werd geredeneerd dat de kogel daarom allen uit dat pistool kon komen. Gelukkig werd ook dat toendertijd door de rechter naar de prullenbak verwezen. Als dat met upscaling AI niet zou gebeuren, dan zou je als aanklager 10 verschillende AIs de foto 100 keer kunnen laten upscalen tot er eentje zeer op je verwachte lijkt. Absoluut onwenselijk ongeacht wat voor mogelijke biases in een AI nog bijkomen.

[Reactie gewijzigd door Darkstriker op 22 juli 2024 18:08]

Als er simpelweg meer videos met schietpartijen met een bepaalde huidskleur zijn, dan kan dat simpelweg komen omdat er ook daadwerkelijk meer schietpartijen plaats vinden met mensen van een bepaalde huidskleur. Dan is er geen enkele sprake van racisme.

Maar het kan nog steeds wel betekenen dat een AI dan een verkeerde invulling maakt bij het "verbeteren" van de video. Dus ook dan is het ongewenst om een AI te gebruiken om dat beeld te "verbeteren"

De AI zal waarschijnlijk ook sneller van een onbekende schutter een man maken ipv vrouw, omdat er nou eenmaal veel meer mannelijke schutters zijn. Daarbij is het nog duidelijker dat het niks met racisme te maken. (tenzij je er vanuit gaat dat mannen en vrouwen volledig gelijk zijn en het feit dat 90% van de gedetineerden man zijn komt doordat mannen zwaar gediscrimineerd worden in ons rechtsysteem)
Het hoeft niet eens racisme te zijn (al is dat vrijwel altijd zo). Zelfs als een bot getrained is expliciet om niet racistisch te zijn (als dat mogelijk is), het ding heeft sowieso een "mening". Altijd. Een mening die afhankelijk is van hetgeen waarop hij getrained is. Er zal altijd een bias in zitten. Zeker omdat learnsets vooral gecureerd worden. Als een bot na een trainingsessie ineens onwenselijke dingen begint te zeggen, dan wordt hij teruggedraaid naar een eerdere versie.

Je kan een bot nou eenmaal niet compleet los laten om zelf maar te gaan leren wat hij tegen komt. 4Chan heeft wel bewezen dat als er mee te fucken valt, dat het absoluut zal gebeuren (vroege versie van Microsofts Bing bot die binnen enkele uren begon te schelden en racistische opmerkingen te maken, omdat hij direct leerde van interacties, dus was hij te beïnvloeden door die eikels van 4chan).

Dus, het wordt gemodereerd. Naar welke maatstaven? Dat is een hele grote vraag (het kan ook doorslaan, zodat je Aziatische mensen in SS pakken krijgt als je vraagt om een WW2 plaat), meestal naar hetgeen wat het meest commercieel uitbaatbaar is. Dat is meestal niets positiefs.
Feitelijk is de AI in dit geval een reflectie van een maatschappij die lijdt aan diepgeworteld (institutioneel) racisme
Je hebt het over "in dit geval" en "een maatschappij...". Welke maatschappij bedoelt je?
Dit is geen rasisme vanuit mijn kant, maar helaas hoe de wereld nog steeds in mijn kant, dus neem het volgende voorbeeld mij alsjeblieft niet persoonlijk kwalijk.

AI leert van het internet en andere beelden, omdat er helaas ene wijdverspreid idee bestaat dat mensen met een immigratie achtergrond sneller crimineel zijn, zal de AI bij het invullen van details er misschien voor kiezen om sneller details van mensen met deze achtergrond te gebruiken.

Een video met een schietpartij waarin de huidskleur door lichtinval of andere oorzaken niet geheel duidelijk zijn, zullen misschien dus door software bepaald gaan worden.
Een AI die aan patroonherkenning doet, zal misschien detecteren dat criminele activiteiten vaker worden uitgevoerd door mensen met een bepaalde huidskleur. Die correleert dan die huidskleur aan (die) criminele activiteiten terwijl het werkelijke verband ligt in andere zaken zoals
- niet gewaardeerd worden in de maatschappij
- onvoldoende inkomen om van te kunnen leven, zelfs met twee of drie inkomens (van die persoon)
- slechte baan, zwaar werk en laag betaald, weinig werkuren
- taalachterstand
- lage of geen opleiding
- laag IQ of zelfs hersenbeschadiging
- mishandeling tijdens jeugd
- lage of geen opleiding van ouders
- laag inkomen van ouders
- taalachterstand van ouders
Dit lijstje is gegarandeerd onvolledig, en ik heb geprobeerd te ordenen naar onder toe naar de basisoorzaken. Een aantal van die zaken die ik hier noem kun je aanpakken en zelfs proberen te voorkomen, maar het kapitalistisch systeem verhindert dit.

De resultaten van dit soort algoritmes zullen de veronderstellingen en vooroordelen die in de data zitten bevestigen.
Ps dit staat los van het gebruik van AI om beelden te analyseren. Als de opdracht voor de AI is “ik zoek deze persoon tussen tientallen uren aan video en/of duizenden foto’s” dan vind ik het wel toelaatbaar.
In de praktijk is het dan omgekeerd. Men heeft (al dan niet duidelijke) video's of foto's met verdachten en men zegt zoek in de database met veroordeelden/demonstranten de persoon die op de video van de verdachte staat.
Dit is in Nederland ook al een paar keer fout gegaan. Er zijn mensen gedaagd die volgens analyse van de beelden door de politie bij de demonstraties op schiphol ongeoorloofd het terrein van Schiphol zijn binnengedrongen.
https://www.rtlnieuws.nl/...chtvaart-milieu-blokkeren
https://www.nhnieuws.nl/n...-vijf-verdachten-vervolgd
Daarbij zijn mensen die naar eigen zeggen wel eens aan een demonstratie hebben meegedaan, maar die dag totaal niet bij Schiphol geweest zijn.

https://www.nhnieuws.nl/n...ok-mijn-vrouw-en-kinderen
https://nos.nl/artikel/24...al-data-van-demonstranten
Maar dan is er alsnog een persoon die de resultaten zal moeten controleren.
Tja, als de foto of video van het vergrijp onscherp of onduidelijk (donker, laag contrast) is kan die persoon ook niets beoordelen. En als de foto wel scherp is, wie weet betreft het een tweeling of een dubbelganger, een willekeurig ander iemand die toevallig op de verdachte lijkt.
Dat is niet gereserveerd voor Hollywood :D

Ik vind dat in de meeste zaken, als de overheid zijn zaak niet kan maken zonder het openstellen van de software (of dat nu AI is, camera, flitser, automatische nummerplaat herkenning of iets anders) dan mogen ze de zaak verwerpen.

Agenten schuilen zich meer en meer achter hun bureau terwijl ze een paar dingen samenklikken om 'bewijs' te hebben, een mailtje naar de ISP of telco en hun IP of telefoonnummer wordt omgevormd in een adres met GPS locatie, maar al die systemen kunnen omgeleid worden, hoeveel mensen wordt de SIM niet gekloond of staat de WiFi niet open?

Als de bandiet het toegeeft, dat is daar gelaten, maar als bewijs is momenteel alles dat je online vindt eigenlijk tweemaal niets waard, al mijn informatie staat al online indien niet commercieel beschikbaar via oa. Elsevier dan is het een dump op een hackersforum, zonder garantie op de privacy is het gemakkelijk om bewijs te fabriceren door zowel de crimineel als de staat.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 18:08]

Dus criminelen mogen alle technieken gebruiken en de personen die wij als samenleving inhuren om misdaad te beteugelen mag dat niet?

Beetje extreem standpunt als je het mij vraagt. Ook het beeld dat je schetst van luie mensen die het minimale proberen te doen om daders in de kraag te vatten staat ver van de werkelijkheid af.

Dat er veel over jou bekend is betekent niet dat jij een doelwit van de politie bent. En ook betekent het niet dat als jij crimineel gedrag vertoont dat het makkelijker is jou in de kraag te vatten. Als er geen sluitend bewijs is zal de rechtbank niet mee gaan in de strafeis, sterker nog, de meeste officieren zullen een zaak zonder sluitend bewijs ook niet snel voor de rechter brengen. De kans op vrijspraak is dan te groot en de pakkans voor het zelfde vergrijp wordt dan minimaal. Dus zonde van de geïnvesteerde tijd om het af te raffelen.

Maar bewijs fabriceren, daar prikken rechters echt wel door heen. En als dat wordt ontdekt zijn de rapen gaar voor de gene die bewust vals bewijsmateriaal in de rechtbank heeft gebracht en deed alsof het legitiem bewijsmateriaal was. Om maar niet te spreken van de gene die opdracht gaf tot fabricage van het valse materiaal.

[Reactie gewijzigd door djwice op 22 juli 2024 18:08]

Dus criminelen mogen alle technieken gebruiken en de personen die wij als samenleving inhuren om misdaad te beteugelen mag dat niet?
Inderdaad.

Criminelen hebben er geen moeite mee dat ze onschuldige mensen slachtoffer maken. Wij als samenleving hebben daar wel moeite mee.
En daarom willen wij als samenleving bepaalde dingen niet doen die een crimineel wel doet.

Liever dat 10 criminelen vrijuit gaan dan 1 onschuldige veroordeeld word.
Maar bewijs fabriceren, daar prikken rechters echt wel door heen.
De praktijk heeft allang bewezen dat rechters daar vaak niet doorheen kunnen prikken. (is ook niet realistisch om dat te verwachten)
En als het ontdekt word zijn de consequenties vaak veel te laag en veel minder erg dan de schade aan het slachtoffer dat onschuldig veroordeeld is.
Ik trek techniek gebruiken niet in een lijn met onschuldige mensen veroordelen.

Zonder techniek kun je cybercriminelen niet vinden, vingerafdrukken vergelijken, op beeld vastleggen dat iemand iets doet etc.

[Reactie gewijzigd door djwice op 22 juli 2024 18:08]

Je zegt "alle technieken"
Daar zit het cruciale verschil.

Natuurlijk gebruik je techniek om cybercriminelen op te sporen, vingeraferukken vergelijken etc.
Maar niet ten koste van alles.
Dus mag de politie mensen op straat gewoon neerschieten omdat criminelen dat ook doen? Waar stopt de macht van de overheid volgens jouw? Er moeten inderdaad meer beperkingen op de macht van de politie komen.

Het probleem zit hem niet dat er goede mensen bij de politie werken, het is het feit dat de mens in het algemeen de gemakkelijkste uitkomst vindt. Als je dus een wet implementeert die 1% van de bevolking een crimineel maakt is het gemakkelijk om aan een quota te komen zonder te veel moeite, want de 'brave burger' gaat weinig problemen geven. Geharde criminelen, daar zit een echt risico aan, daar heb je geweren voor nodig, misschien kun je zelfs gewond geraken, maar kijk, iemand die 10km/h te snel rijdt is evenredig 'crimineel' en betaalt een boete en is netto inkomen.

En dat zien we al tientallen jaren dat er altijd maar gehandhaaft wordt op de gewone burger of zelfs jongeren die iets uithalen dan de echte boeven die stelen en verkrachten tot het punt dat we vandaag meer ambtenaren in dienst hebben die zogenaamde haatspraak (aka prentjes van de profeet) achterhalen dan in de zware misdaad (350 totaal voor DJSOC incl. administratie)

[Reactie gewijzigd door Guru Evi op 22 juli 2024 18:08]

iemand die 10km/h te snel rijdt is evenredig 'crimineel' en betaalt een boete en is netto inkomen.
Verkeersovertredingen zoals 10km/u te hard rijden vallen niet onder het strafrecht sinds 3 juli 1989:
https://nl.m.wikipedia.or...ing_verkeersvoorschriften

Dus ben je ook geen 'crimineel' en gaat de vergelijking waar je je druk om lijkt te maken, al ruim 34 jaar niet meer op. 'De overheid' is het dus al heel lang met je eens. Je had het wellicht alleen nog niet door.
Nouja, als initieel onderziek om een pool van verdachten te krijgen, heb ik er niet zo'n probleem mee, maar dan moet wel op basis van ander bewijs dus goed bewezen kunnen worden dat degene in de enhancement ook daadwerkelijk de dader is, en dus niet puur op die enhancement alles gebaseerd is.
Mja dat geld ook van die hackers in films van de jaren 90. Ff wat rammen op je toetsenbord en bam hele stratenblok van het stroom af of verkeerslichten allemaal op groen of virus gemaakt dat alles kan overnemen etc.
In de jaren tachtig waren er nog geen SSL verbindingen en als dingen aan een netwerk hingen kon je er eigenlijk echt wel makkelijk in. Dat was zelfs begin jaren negentig nog wel zo.

Admin worden van een netwerk? Floppy met Novell Netware, opstarten vanaf die floppy => netwerk admin.
Wachtwoord? Zat er niet op de meeste computers.
Wachtwoord op een database of applicatie? Stond plain text in de software.

Dus ja, hacken was in de jaren 80 een stuk makkelijker. Maar nu nog steeds
  • kastje open en je kunt de stoplichten regelen.
  • de 'juiste' kabel door hakken en de wijk heeft geen stroom.
Nah, dat soort systemen als stoplichten of stroomvoorziening was vaak niet eens aangesloten op een openbaar netwerk, voor zover het überhaupt al een netwerk of computerbesturing had.

Iedereen denkt dat vroeger alles wagenwijd openstond en onbeveiligd was, omdat sommige systemen inderdaad totaal niet beveiligd waren, maar dat gold zeker niet voor alles.

Als je bijvoorbeeld tussen eind jaren tachtig en eind jaren negentig, dus in het pre-adsl tijdperk vanuit huis inlogde bij je werkgever Philips, moest je je eerst aanmelden door in te bellen (via een telefoonlijn). Vervolgens hing de computer aan de andere kant op en belde terug naar het telefoonnummer wat bij Philips bekend was bij jouw account en dan pas kon je echt inloggen. Voor een hacker maakte dit het uiteraard veel moeilijker om op deze manier binnen te komen, zelfs als hij een geldige inlog had gevonden.

Als het echt zo makkelijk was geweest om allerlei systemen te ontregelen, dat was dat ongetwijfeld ook regelmatig gebeurd én de krant / tv-journaal gehaald, maar ik kan me niet één keer herinneren dat op het nieuws te hebben gezien.
Dit is gewoon deepfake 2.0.
Je vergeet het scherp krijgen van het beeld en dat men via een weerspiegeling van een plas in een zonnebril van een getuige de verdachte kan herkennen
Interessant en verstandig van de rechter. Ik weet niet of het zo is maar ik kan me goed voorstellen dat een compositietekening (door de 'filters' van de hersenen van getuige en tekenaar gehaald) bijvoorbeeld óók nooit geldt als bewijs. Je kunt het wel gebruiken om sneller verdachten aan te dragen ter beoordeling maar niet zeggen: jij lijkt zo op deze tekening: jij was daar. Er zal altijd 'echt' bewijs aan gekoppeld moeten worden om die laatste stap te maken. Tunnelvisie ligt dan wel op de loer natuurlijk (bewijs zoeken bij een verdachte in plaats van andersom).
Compositietekeningen worden dan ook eigenlijk altijd alleen gebruikt in de opsporing: kent u iemand die hierop lijkt en die gisteravond daar en daar was? De politie gaat daarna 'echt' onderzoek doen. Het risico is dus vooral dat ze de verkeerde achterna gaan, omdat de compositietekening een man met kort haar toonde terwijl hij dat niet had.
Als het inderdaad om "verbetering" gaat (zoals in het voorbeeld hierboven) dan is dat, zeker wanneer het is aangegeven, volgens mij niet erg. Zeker niet wanneer er niets daadwerkelijk wordt veranderd of erbij verzonnen.

Als er echter op basis van een paar pixels een compleet gezicht middels AI gereconstrueerd moet worden dan is dit WEL een verkeerde zaak lijkt me. Ik zou dan ook graag de beelden (vooraf en na) zien om te kijken wat de AI allemaal gedaan heeft.
Hoe herken je het verschil?
Door ook de bronbestanden beschikbaar te maken of op z'n minst een duidelijk verhaal wat er precies is verbeterd en hoe dit is gedaan. Uiteraard rekening houdend met de limitaties van het bronmateriaal (lees: gebrek aan pixels om überhaupt wat te kunnen doen)
Daarmee beïnvloed je de uitkomst. Een video waaruit nu "duidelijk" naar voren komt dat de verdachte iets heeft gedaan, zal toch zwaarder meewegen dan de originele video waarin dat niet zo duidelijk is.

Gezien het feit dat de verdachte niet ontkent dat hij heeft geschoten, zal het ook niet gaan om hem. Maar eerder om de situatie, bijvoorbeeld wie nou als eerste schoot. In de originele video is niet (goed) te zien dat hij als eerste schoot, in de AI video schiet hij als eerste. Het enige wat je nu weet, is dat er een AI video is waarin hij als eerste schiet. Of hij daadwerkelijk als eerste schoot, weet je nog steeds niet.
Door ook de bronbestanden beschikbaar te maken of op z'n minst een duidelijk verhaal wat er precies is verbeterd en hoe dit is gedaan. Uiteraard rekening houdend met de limitaties van het bronmateriaal (lees: gebrek aan pixels om überhaupt wat te kunnen doen)
Zo werkt het niet. Een rechter mag pas oordelen als onomstotelijk duidelijk is dat de verdachte het gedaan heeft. Bewijs mag pas toegelaten worden als onomstotelijk vast staat dat het geheel de werkelijkheid weergeeft. Want;

Je maakt een onderscheid tussen "verbetering" en "een compleet gezicht middels AI gereconstrueerd moet worden" maar dit is een arbitrair/grijs gebied, niet kwalificeerbaar en dus ook weinig waard in een rechtszaal.

Hoe toets je het onderscheid? Door de bronbestanden beschikbaar te maken zeg je. Maar dan zou je dus aan de bronbestanden alles al moeten kunnen zien, als het pas duidelijk wordt na het editen door AI is het geen sterk verhaal. En dus heb je er nu een extra probleem bij in de bewijslast, te weten "is de relatie van het bronmateriaal met het AI-materiaal in orde?" Zie mijn punt hierboven waarom dat belangrijk is, maar ook:
Hoe toets je dat men niet al beïnvloed is door het zien van het AI-materiaal? Onmogelijk.

Klinkt vergezocht, maar dat is hetzelfde als in de verte naar iets kijken, er niks uit op kunnen maken, dichterbij lopen, het wel zien, en vervolgens op je originele kijkafstand alsnog kunnen 'zien' wat het is. Denken te kunnen 'zien', want je gebruikt hier extra informatie opgeslagen in je hersenen om het interpreteren. (NB: Deze vergelijking gaat niet over dat dit 'zien' ook ontoelaatbaar zou zijn in een rechtszaal als je bijvoorbeeld iets gezien hebt en getuige bent, maar puur over hoe irrationeel en beïnvloedbaar wij zijn, en dat hier altijd mee opgepast moet worden.)

[Reactie gewijzigd door A Lurker op 22 juli 2024 18:08]

Wat dan met de veroordeling van moord terwijl er geen enkel bewijs is? Is gebeurd in Vlaanderen
Dat is een goede vraag. Maar daar kan ik geen antwoord op geven als je zo summier bent.
Els clottemans, alleen motief en gelegenheid maar geen enkel hard bewijs.
Dat er op dit moment al dwalingen zijn in een rechtzaak, is geen argument om nog meer dwalingen in de toekomst toe te staan.

Lurker geeft hele goede argumenten waarom die AI software onwenselijk is in een rechtzaak.
Dat er iemand zonder hard bewijs veroordeeld is, doet niks af aan zijn argumentatie.
Dan kun je nog steeds niet met zekerheid stellen dat de AI gegenereerde persoon zeker overeenkomt met de echte persoon die terecht staat in deze zaak.

Ik neem aan dat de originele video gewoon als bewijsmiddel kan worden aangebracht, slechts de AI manipulatie wordt hier geweigerd.
Als die 'verbetering' betekent dat er meer pixels in de film zitten dan in het origineel is er per definitie wat bij verzonnen en dus discutabel. Een beetje zoals de eeuwige 'enhance' in tv series: dat kan gewoonweg niet
Dat is wel erg sterk, je kan ook de omliggende pixels extrapoleren. Dit levert ook niet altijd het juiste beeld, maar verzonnen is dan wel wat sterk gesteld. Juist dit is denk ik het verschil met AI waar je het dus niet langer weet hoe het nieuwe beeld is ontstaan.
Extrapoleren is precies geen bewijs. Als je iemand uit een bank zag rennen en iets verderop rent er ook iemand is dat geen bewijs dat diegene ook de bank berooft heeft tenzij er een direkte lijn tussen beide renners is. Zo ook met pixels: welke pixel gaf de doorslag dat de foto inderdaad diegene is die je zoekt en waarom kon je dat zonder die extra pixel niet zien en waar komt die pixel vandaag. Slippery slope dus.
Lijkt mij dat dat zeker wel als ondersteunend bewijs kan worden gebruikt. Er kan een fout zitten maar samen met ander bewijs maakt dit een beeld completer.
Het gaat dan om de verzameling bewijsstukken uiteraard, en iedereen weet wat de relatieve waarde is van het beeld.
Nee, mensen weten juist niet wat de relatieve waarde is van het beeld. Zeker niet omdat verschillende opschalers niet alleen extrapoleren maar daadwerkelijk dingen toevoegen. Iets wat bij de Kyle Rittenhouse rechtzaak al gebeurde. Het "verbeterde beeld had duidelijk dingen toegevoegd wat niet in het origineel zat en juist dat wilde de aanklager gebruiken als bewijs .

De enige manier om de relatieve waarde van het beeld te bewaren is gewoon het kleine beeld vergroten waarbij je de pixels al blokken ziet. Dan geef je precies aan wat er aan bewijs is.
Dat heb je al snel met upscaling, zeker wanneer er AI aan te pas komt. Maar het moet wel duidelijk terug te herleiden zijn naar de bron.
Er zijn allerlei manieren om pixels toe te voegen. Kleine objecten op videobeelden worden door trillingen vaak niet op dezelfde pixels geprojecteerd. Je kunt de pixels vergroten en vervolgens de objecten van diverse beelden netjes uitlijnen. Door dat met een groot aantal beeldjes te doen en deze te combineren middelen verschillen uit en krijg je details te zien die eerder verborgen waren. Zo'n methode voegt wel pixels toe, maar de informatie was al aanwezig in de data.

Een groter probleem is AI software die uit afbeeldingen die voor training gebruikt werden informatie in lage resolutie (uit de afbeelding of videoframe) koppelt aan stukken in hoge resolutie uit die trainingsdata. Dan voeg je data toe uit compleet andere bronnen. Ook als het gaat om ogen/monden is het niet ondenkbaar dat de software dan bijvoorbeeld een oog toont die totaal niet overeenkomt met het oog van de oorspronkelijke persoon.
Precies. Bij video zit er informatie in de stroom die je naar voren kunt toveren (alhoewel je dan ook extrapoleert over het tijdsdomein, dus nog steeds wel tricky. Zeker als je frame rate heel laag is). Maar het magische enhance van een jpeg....
Dat hoeft niet. Het kan ook extra informatie in de tijd zijn (vele frames) die gecombineerd worden met AI waardoor het beeld duidelijker wordt.
Als het inderdaad om "verbetering" gaat (zoals in het voorbeeld hierboven) dan is dat, zeker wanneer het is aangegeven, volgens mij niet erg. Zeker niet wanneer er niets daadwerkelijk wordt veranderd of erbij verzonnen.
Dat is sowieso lastig om verbetering toe te passen zonder iets te verzinnen.
Bijvoorbeeld: Als AI een wazige foto van mijn gezicht zou gaan verbeteren bestaat er de kans dat ik dankzij AI vrijuit zou gaan, doordat op de wazige foto niet zichtbaar is dat ik een moedervlek in mijn gezicht heb die op een scherpe foto wel zichtbaar is.

Zover ik het bericht kan nagaan geef ik de rechter gelijk om een door AI aangepaste foto niet te gebruiken in een rechtszaak.
Met AI op telefoons straks wordt dan elke foto en videorecording geweigerd?

Sowieso is het gebruiken van video / screenshots / foto als bewijs lastig verhaal inmiddels. Je kan zo iemand helemaal zwart maken met een bewerkte screenshot uit Instagram DMs en iedereen die het gelooft.

Je bent al de Sjaak voor dat je bij de rechter komt om te bewijzen dat het bewerkt is.
Dat is wel een interessante. Het zou sowieso niet als het enige bewijs mogen dienen, maar denk idd dat je er tegenwoordig altijd rekening mee moet houden dat het bewerkt kan zjjn
Het gebeurt heel vaak dat de wederpartij de inhoud van foto's en video's niet betwist. Zeker niet als die van meerdere bronnen afkomst zijn. Het is dus niet zo dat elk beeldmateriaal voortaan wordt geweigerd.
Nog een paar jaar en geen enkele vorm van video is meer een geldig bewijsmateriaal. Met deepfakes en andere opkomende beeldgeneratie technieken kun je straks echt materiaal niet meer van verzonnen materiaal onderscheiden. Zelfde voor audio en foto’s.
Eén enkele video waarschijnlijk niet meer nee.

Maar als een bepaalde situatie door meerdere omstanders is gefilmd, dan heb je bv 3 videos vanuit 3 verschillende standpunten.
Deepfakes maken zodat de 3 videos vanuit verschillende hoeken allemaal dezelfde deepfake laten zien zonder dat het van echt te onderscheiden is, is een stadium dat we nog niet bereikt hebben.
Lijkt me ook heel raar als dit soort bewijs wel geaccepteerd zou worden. Bij vage beelden waar details ingevuld worden door AI is er geen enkele garantie dat het enigzins overeenkomt met de werkelijkheid. Immers, hoe moet de AI weten wat de werkelijkheid is? Ook dit soort video algoritmes hebben vaak 'last' van hallucinaties en verzinnen de gekste dingen.
Terecht. Er is een reëel gevaar dat de AI de impressie van een gelijkenis creëert die er niet was.

En dan is er nog het probleem dat AI zeer ontransparant is. Het is altijd een beetje een black box, zelfs voor de ervaren gebruikers en experts.

Men moet zich maar tot goed uitlegbare methodes beperken zoals spelen met contrast, belichting of een simpel niet AI inzoom algoritme.
In een rechtszaak is het cruciaal dat een rechter zijn oordeel kan onderbouwen. Bij toepassing van AI wordt dat al snel problematisch, omdat niet goed navolgbaar is wat er is gebeurd en waarom die uitkomst juist is. Dus begrijpelijk oordeel, ik ben benieuwd hoe dit in andere landen uitpakt.

Op dit item kan niet meer gereageerd worden.