Britse politie deelde rapport met door AI gehallucineerde voetbalwedstrijd

Politiechef Craig Guildford van de Engelse regio West Midlands heeft zijn excuses aangeboden voor een fout in een rapport dat leidde tot een besluit om fans van Maccabi Tel Aviv te weren van een wedstrijd tegen Aston Villa. Daarin stond namelijk een door AI gehallucineerde wedstrijd.

In het rapport stond een wedstrijd tussen Maccabi Tel Aviv en de Londense club West Ham United die nooit had plaatsgevonden. Guildford vertelde de parlementaire commissie voor binnenlandse zaken maandag dat de opname van die wedstrijd in de inlichtingen 'voortkwam uit het gebruik van Microsoft Copilot', schrijft onder meer de BBC.

Zo'n fout is voor een voetballiefhebber waarschijnlijk al moeilijk te missen. Wat de fout extra pijnlijk maakte, is dat West Ham United op de dag van het fictieve duel met Maccabi al een andere wedstrijd speelde. De Londense club speelde op 9 november 2023 in de Europa League tegen het Griekse Olympiacos en won dat duel met 1-0. Maccabi Tel Aviv speelde op die dag in de Europa Conference League tegen het Oekraïense Zorya Luhansk en won die wedstrijd met 1-3.

Guildford ontkende in december nog dat de politie van West Midlands AI had gebruikt om het rapport op te stellen. Hij zei destijds dat de verzonnen wedstrijd het gevolg was van socialmediascraping. Eerder deze maand herhaalde hij dat de West Midlands-politie geen AI gebruikt en weet hij de denkbeeldige wedstrijd aan een Google-zoekopdracht.

Door Imre Himmelbauer

Redacteur

14-01-2026 • 21:13

43

Reacties (43)

Sorteer op:

Weergave:

Haha, dit is echt bizar, de politie laat zich foppen door een AI die een wedstrijd verzint. West Ham en Maccabi speelden die dag gewoon andere wedstrijden, dat had je zo kunnen checken. Blijkbaar moet de politie voortaan hun rapporten zelf even nakijken voordat ze besluiten nemen.
Maar hij komt er gewoon mee weg. Want hij heeft zich helemaal niet "laten foppen". Ik wil de prompt wel eens zien die deze "hallucinatie" gegenereerd heeft. Dat zal iets zijn in de trant van "verzin een voetbalwedstrijd waarbij Maccabi fans stennis schopten".

Als je kijkt naar hoe de politie dit heeft aangepakt dan wordt namelijk duidelijk dat ze hebben gesproken met de Islamitische gemeenschap en advies hebben ingewonnen van een uitgesproken Israel criticus (als in: dood aan de staat Israel).

Ook hebben ze, zonder ooit met de Joodse gemeenschap gesproken te hebben, aangegeven dat de Joodse gemeenschap ook tégen de komst van de Maccabi fans was. Dat hebben ze later gerectificeerd.

Ofwel: de gewenste uitkomst van het "onderzoek" stond voor de politie vooraf al vast. En om dat te rechtvaardigen hebben ze gewoon keihard gelogen.

In plaats van te spreken over "AI hallucinaties" is het denk ik beter om te kijken naar de reden: waaróm was dit de gewenste uitkomst voor de politie? En dáár moeten we dan het gesprek aan gaan. Maar iets zegt me dat men de reden niet gaat benoemen, al helemaal niet in het VK.
Ofwel: de gewenste uitkomst van het "onderzoek" stond voor de politie vooraf al vast. En om dat te rechtvaardigen hebben ze gewoon keihard gelogen.
Het is bizar maar inderdaad schrijft het BBC arikel dit ook:
Sir Andy's interim report, commissioned by Mahmood, found that "rather than follow the evidence, the force sought only the details to support their desired position to ban the fans," Mahmood told MPs
https://www.bbc.com/news/articles/cvgn984j9d7o
Alleen, weerleggen wat er uit een AI tool is komen rollen, is in dit voorbeeld simpel, maar in complexere situaties (waar meer data of complexere vragen een rol spelen) kost dat veel meer tijd. Je krijgt dan een vraag: AI beweert dit, klopt dit scenario? Dan kan een sufkop (pun intended) die een AI prompt weet te maken (er zijn zelfs al prompt specialisten, ook op tweakers is daar een forum over 8)7) iets ophoesten en dan mag jij als specialist gaan argumenteren dat het niet klopt. Ergens is dat wel een deceptie van de menselijke vaardigheden/waardigheid.

Iets serieuzer: het gebruik van AI neemt wel dramatische vormen aan als 'common-sense' zich niet eens meer laat triggeren. Die meneer Scherder en zijn boek 'Liever dom dan lui' (ik heb het boek niet gelezen, alleen de samenvatting) heeft wellicht een punt. Dit voorbeeld zou bijna een schoolvoorbeeld van domheid kunnen zijn, zeker als de betreffende agent volhoudt geen AI gebruikt te hebben.
wat een sukkel, en dan blijven ontkennen terwijl de meerderheid relatief om hem heen allang doorheeft hoe de vork in de steel zit
Erg bijzonder ja. Dan kan je je afvragen dat als hij -om zoiets knulligs- al meermaals liegt en de waarheid verdraaid, wat die politiechef dan wel niet doet met verkeerde bewijslast en dat soort cruciale zaken.
Je beschrijft hier ook het gros van de politiekers mee...
Hoeveel zin heeft het nog om LLMs te gebruiken voor schrijfwerk als het maar feiten blíj́ft verzinnen? Hoe lang wordt ons al niet beloofd dat de nieuwe modellen echt beter zijn?
AI kan je prima helpen om schrijfwerk beter te structureren, en je verhaal scherper en duidelijker te verwoorden. Een hoop spel- en stijlfouten kan ze ook nog wel uitvissen.

Wat mensen vergeten, is dat je zelf verantwoordelijk blijft voor de inhoud, en dus het eindresultaat nog wel moet nalezen en controleren.

[Reactie gewijzigd door gorgi_19 op 14 januari 2026 22:02]

Ik heb al jaar en dag spellingscontrole op m'n pc, geen ai voor nodig. Niet dat ik die spellingscontrole nodig heb, want ik maak natuurlijk nooit voutjes. ;)
Ik wist niet dat spellingscontrole je tekst kan structureren. Weer wat geleerd.
Nog nooit dat blauwe krabbeltje onder je tekst gezien in Word? Zit er volgensmij al sinds 2005 in hoor.
Grammaticacontrole is net even iets anders. Je kunt Word geen hele alinea's laten redigeren of vragen of het de kerngedachte naar voren kan halen of vragen of het je onhandige lange zin die teveel "of" clausules op elkaar stapelt uit elkaar kan trekken :P . Of je dat dan door een LLM moet laten doen is een tweede, maar het is wel iets wezenlijk anders.

Ander voorbeeld: Word heeft een functie om een stuk tekst te beoordelen op leesbaarheid (aan de hand van wat heuristieken), maar het kan niet je tekst omschrijven zodat de leesbaarheid er ook daadwerkelijk op vooruit gaat. Iets dat een LLM nou net wel kan (onder supervisie, uiteraard).

[Reactie gewijzigd door MneoreJ op 15 januari 2026 00:29]

Aan de andere kant, als je LLM iets laat herschrijven, is het dan nog je eigen tekst? Want vele teksten die door een LLM geschreven zijn haal je er zo uit.

En ondertussen zijn we onszelf aan het aanleren om teksten te schrijven in bullet points, die door een LLM te laten uitschrijven in een goed gestructureerde tekst om dan aan de andere kant die tekst opnieuw te laten samenvatten door een LLM want we willen liever een korte samenvatting met zo min mogelijk woorden want geen tijd om iets deftigs te lezen.
Is natuurlijk wel zo, maar er zijn ook gewoon een hoop (zakelijke) documenten waarbij het handiger is als het gewoon leesbaar is wat er staat en het niet echt uitmaakt of de tekst nu wel een elegant epistel is in solide stijl van een auteur met alliteratieve artistieke aspiraties :P.

Het is in principe ook mogelijk een LLM te fine-tunen zodat wat eruit rolt wel lijkt op je eigen stijl, of in ieder geval minder model-ismes heeft. Er zullen echter niet veel mensen zijn die dat doen, omdat je dan wel genoeg om je tekst moet geven om er wat moeite in te stoppen maar niet genoeg om gewoon zelf wat langer aan de pen te likken. Maar ik kan me voorstellen dat software dit wellicht gewoon eigenmachtig kan gaan doen door je documenten te scannen (met een vinkje om deze feature uit te zetten, natuurlijk) en dit dan als pluspunt verkocht gaat worden. Uiteindelijk blijf je als auteur natuurlijk gewoon eindverantwoordelijk voor het resultaat, ongeacht hoe je het tot stand hebt laten komen.

[Reactie gewijzigd door MneoreJ op 15 januari 2026 08:36]

Is natuurlijk wel zo, maar er zijn ook gewoon een hoop (zakelijke) documenten waarbij het handiger is als het gewoon leesbaar is wat er staat en het niet echt uitmaakt of de tekst nu wel een elegant epistel is in solide stijl van een auteur met alliteratieve artistieke aspiraties :P.
De stijl van bijna alle LLMs is "meer, vager en zachter". Niet iets dat ik associeer met duidelijke of leesbare tekst.Je hebt de optie om het "korter" te maken maar dan wordt vaak informatie ingeslikt.
LLM's zijn goed in voortborduren in dezelfde stijl, dus het is mogelijk om via geschikte prompting en voorbeelden de boel te verfijnen -- je moet dan niet gewoon vragen om "korter" of "maximaal X zinnen" of andere instructies waar de modellen eigenlijk niet zo goed mee zijn. De standaard kruiperige ChatGPT Jip- en Janneke-teksten zijn het gevolg van hoe het model in beginsel getrained en getuned is door de makers, maar daar zit nog wel wat speling in.

Daarnaast is leesbaarheid een schaal, natuurlijk. Een LLM gaat een al goed geformuleerde tekst waarschijnlijk niet beter maken, maar als je er standaard corporate slop in gooit kan wat eruit rolt nog steeds beter leesbare slop zijn. Kleine winst is ook winst.

[Reactie gewijzigd door MneoreJ op 15 januari 2026 10:05]

Ja, vraag dat maar eens aan Petra De Sutter :-)

Maargoed, of er professionele gevolgen aan zijn wanneer het fout gaat, hangt natuurlijk van de signatuur van 'de overtreder' af... Bij de ene wordt het bestraft, bij de andere met de mantel der liefde toegedekt...
Ik zou LLMs ook niet voor structuur gebruiken; die chatbot schrijfstijl pik je er zo uit en dan wordt je alsnog beschuldigd van het gebruik van AI, ook als je ooit zelf een versie van dezelfde tekst hebt geschreven.
Hoeveel zin heeft het nog om LLMs te gebruiken voor schrijfwerk als het maar feiten blíj́ft verzinnen? Hoe lang wordt ons al niet beloofd dat de nieuwe modellen echt beter zijn?
Dat is natuurlijk wat een populistische spraak. Nieuwe modellen zijn idd beter maar je kan AI niet gebruiken om een heel rapport te schrijven en dat vervolgens niet na te lezen. Dat weet in principe elk klein kind.

Overal staan er waarschuwingen dat AI niet altijd accuraat is. Je moet fact checken en ook daar kan je AI voor inschakelen. Bijv en internetbron toevoegen per claim. Die kan je dan checken.

Maar het is gewoon dom om AI blindelings in te zetten voor rapporten waar andere mensen op moeten vertrouwen.

Je moet er slim met omgaan. Net zoals ik bij belangrijke rapporten ook de bronnen check van Wikipedia. Je wil soms echt zelf de interpretatie doen als je een conclusie wil uitschrijven.

Uiteindelijk zegt niemand dat hun model niet hallucineert. Niemand beloofd iets. Niemand. Dat verzin jij nu bij deze post.

Bronnen, bronnen, bronnen. AI is nooit een bron. En al zeker niet als je weet dat de huidige modellen vatbaar zijn voor hallucinaties. Dat zegt wel iedereen.
Je lijkt me nogal naïef over hoe lui het gros van de mensen werkelijk is... Je hebt helemaal gelijk dat je op de manier zoals jij schrijft met AI tools en informatiebronnen om moet gaan.

Helaas is dat simpelweg niet wat veel mensen doen, incl de agenten die het rapport waar dit artikel over gaat klakkeloos hebben verspreid.

Het probleem is ook dat al die modellen een nogal stellig taalgebruik hebben. Je krijgt niet vaak terug "ik vermoed dat..." of "ik vind hier geen eenduidig antwoord op", maar veel vaker "zo en zo zit het". Dat komt dus heel gezaghebbend over en mensen zijn erg genegen om het dan voor waar aan te nemen.
Je moet AI net zo behandelen als tante Truus of oom Henk op de verjaardag. Als ze iets zeggen waar je wat aan hebt: prima!

Maar als ze opeens de uitslagen van de Olympische Spelen van 2011 gaan opnoemen, dat zou ik toch even controleren of ze kloppen. Te beginnen met de check of er in dat jaar überhaupt wel Spelen waren…
De nieuwe modellen zijn ook echt beter, maar je moet wel weten hoe je ze moet gebruiken.

Obviously weten deze partijen dat niet en laten ze maar random shit maken terwijl dat helemaal niet is hoe je het moet gebruiken.

het feitenrelaas lever je zelf aan, de rest kun je prima met AI herstructureren, maar je feiten moet je zelf gewoon op een rijtje hebben. Doe je dat niet dan krijg je dit.
Guildford ontkende in december nog dat de politie van West Midlands AI had gebruikt om het rapport op te stellen. Hij zei destijds dat de verzonnen wedstrijd het gevolg was van socialmediascraping. Eerder deze maand herhaalde hij dat de West Midlands-politie geen AI gebruikt en weet hij de denkbeeldige wedstrijd aan een Google-zoekopdracht.
En dit is dan gewoon sneu.
Nee, AI moet weten hoe mensen communiceren/denken/vragen stellen.
Het is al van de zotte dat we een wereld creëren waarin zelf nadenken overbodig wordt, nu moeten wij ons gaan aanpassen aan een computer?
Als je AI wil gebruiken om een deel van je werk over te nemen, ja. Net zoals je je moet aanpassen aan je auto, keukenmes, boormachine...

In de ideale wereld zijn LLM's of hun opvolgers echt verstandig, maar zo lang dat niet zo is, zal AI zich niet aan ons aanpassen en gaan wij ons inderdaad moeten aanpassen of ze niet gebruiken. En als de productiviteit van mensen die zich er aan aanpassen effectief hoger is dan de productiviteit van mensen die dat niet doen, is je praktische keuze nog beperkter...
In een ideale wereld leven we allemaal in vrede en zijn we niet onderdanig aan een computer.

Commentaar is overbodig, ik weet het.
Over 50 jaar zijn de meeste huidige tweakers dood, is iedereen die ooit bezwaar heeft gemaakt tegen de ontwikkelingen van de afgleopen 20-30 jaar dood en de generaties die nog geboren moeten worden weten niet beter... want linksom of rechtsom zal voorruitgang de mens door de strot geduwd worden.
Ik maak me daar ook zorgen over. Wij hebben nog geleerd om zelf na te denken en te focussen, maar nu kan er een generatie komen die een hele opleiding doorloopt waarbij alle moeilijke dingen gewoon aan LLMs gevraagd worden. En om je studietijd door te komen, gaat dat ook werken. We gaan moeten opletten dat er geen te groot aantal mensen eigenlijk niet in staat meer is om zelf diep na te denken, want een LLM kan een zeer krachtig hulpmiddel zijn voor mensen die zelf kunnen denken en hem dus correct kunnen sturen; het is geen vervanging voor zelf denken. Not even close.
Het gaat wel iets verder dan sneu, het is gewoon liegen. Een politie chef die glashard staat te liegen.
De vraag is of het bewust is gebeurd. Ik vermoed dat hij zelf niet het rapport heeft opgesteld, dus dan zijn er 3 opties: Hij wist het niet, dus hij heeft 'gegokt' dat 't niet door AI is opgesteld, hij is verkeerd voorgelicht door de opstellers dat er geen AI is gebruikt of hij wist 't wel en heeft er bewust over zitten liegen.

Ik vind de eerste 2 opties zelf waarschijnlijker, zeker de eerste keer dat hij antwoord gaf, dan de andere optie. En als je eenmaal een leugen hebt verteld, zelfs zonder dat je 't zelf wist, is 't lastig om daar op terug te komen. Zeker in de afrekencultuur die we tegenwoordig hebben. Want fouten maken en toegeven kan tegenwoordig ook al 'dodelijk' zijn voor je carrière.
Deze held was aan het werk voor de politie. Dat is toch echt niet hetzelfde als dat iemand lekker een reactie hier plaatst. Bijna alle ambtenaren zouden moeten oppassen met ai (vooral bij politie, justitie, defensie, zorg, belastingen, gemeente), ze werken met gevoelige gegevens immers. Dus zolang ze geen lokaal model draaien bij die politiedienst, moet ie gewoon er vanaf blijven wat mij betreft, hoe fijn copilot ook is in gebruik. Sterker die beheerder daar zou eigenlijk dat uit moeten zetten, hun security officer zal dat vast ook wel willen.

N.B. Ja, microsoft tekent er voor dat de gegevens geheim blijven, ja, ik weet het. Gewoon vanaf blijven en lokaal dat model draaien op eigen infra.
het probleem zit tussen de stoel en het toetsenbord, AI kan best goed dingen doen, maar je moet het niet de KANS geven om iets te verzinnen, als je het gewoon de data van wedstrijden meegeeft kan het je er genoeg feitelijks over vertellen, als je zonder context gaat vragen wat er is gebeurt dan vraag je eigenlijk de AI om zelf maar eens te herrineren wat er gebeurt is, dat is gewoon vragen om problemen.
Ik ben bezig een speech te schrijven voor een bijzondere gelegenheid en chatgpt helpt daarbij enorm. Ik heb zelf de tekst eerst geschreven en die daarna voorgelegd aan chatgpt, met context erbij waar de tekst voor is en gevraagd om verbeterpunten. Mijn tekst was wat aan de lange kant, maar inkorten is lastig, zonder de flow van het verhaal geweld aan te doen, maar een AI kan je meerdere suggesties geven waar je het verhaal kan aanpassen. Het heeft mij flink geholpen in elk geval
Je moet het gewoon controleren... Als schrijver/editor kan ik je vertellen dat AI misschien 20% tijd bespaart. En dat is op een goede dag.

Tenminste, als je content schrijft waar feiten, consistentie en logica belangrijk zijn.

Nieuwe modellen worden niet meer beter, de trainingsdata is te vervuild: of het is door AI zelf geschreven of het komt van bronnen zoals Reddit waar 80% van de antwoorden/posts onzin, sarcasme en getroll is. (Alle 'goede' data hebben ze al lang gebruikt)

[Reactie gewijzigd door Alxndr op 15 januari 2026 09:51]

Dat heeft heel veel zin zolang je maar het onderscheid maakt tussen het vergaren van de data, het uitselecteren van de bruikbare informatie en het verwerken daarvan in een rapport.
Wordt alleen maar erger en erger door AI-incest die zichzelf traint op gehalucineerd materiaal.

Rustig laten doen. Als alle LLMs straks waardeloos zijn, zijn we er gelijk weer van af.
Dat is toch precies wat hier is gebeurd? Er zijn zoveel voorbeelden van "hallucinaties" in het nieuws gekomen de laatste tijd.
Dat heb ik niet ontkend of toch niet expliciet. Je projecteert een menselijke eigenschap op een chatbot, terwijl het gewoon je eigen fout is.

Ik weet gewoon dat je naast de vraag die je stelt aan AI ook een aantal veiligheidsmaatregelen moet nemen:

"You are a helpful AI-assistent,... Your answer will only be within the limites of {context} and can ONLY relate to {question}. If you don't know the answer, state exactly that fact. Also include references to the sources of your answer".

Waarbij je dan ook nog eens de bronnen controleert uiteraard.

Als je dit niet doet dan is het net als met een auto rijden zonder autogordels.

Ik doe dit zeker ook niet altijd, maar als ik iets gebruik dat ook voor derden bestemd is, dan zal ik toch minstens deze veiliigheidsmaatregelen nemen. Als je dit niet doet, dan heb je dat gewoon jezelf te verwijten en niet AI. AI is een hulpmiddel maar geen vervanger.

[Reactie gewijzigd door grrfield op 15 januari 2026 12:09]

Vraag de chatbots altijd even om een uitleg te geven hoe ze aan bepaalde informatie komen.
Werkt ook niet altijd helaas. Context is een probleem dat nog niet is opgelost. Je advies werkt gelukkig vaak wel goed genoeg.

Overigens wat mij betreft gebruikt de politie geen publieke ai zoals copilot.
Ik denk dat ze het bewust hebben gedaan en dan achteraf AI de schuld geven.
De man lijkt zelf ook te hallucineren: eerst social media scraping, dan google, nu copilot... Wat krijgen we hierna als deze smoes hem ook niet helpt zijn verantwoordelijkheid niet te nemen? Marsmannetjes?

Om te kunnen reageren moet je ingelogd zijn