AI voorspelt wie er mogelijk een moord kan plegen

Apps Sam Dille 12 apr 2025
Leestijd: 2 minuten

De Britse overheid experimenteert serieus met AI-technologie die voorspelt wie ooit een moord zou kunnen plegen. Het klinkt enorm indrukwekkend, maar het is een stuk gevaarlijker dan je misschien denkt.

Stel je voor: je zit rustig thuis een kop koffie te drinken, en ergens op een overheidscomputer floept jouw naam ineens op met de melding ‘potentiĂ«le moordenaar’. Niet omdat je iets hebt gedaan, maar omdat een AI-algoritme dat denkt. Klinkt als een aflevering van Black Mirror, toch? Volgens The Guardian is dat niet zo ver van de waarheid.

Het Britse ministerie van Justitie (MoJ) blijkt namelijk te hebben gewerkt aan een AI-tool die voorspelt wie er in de toekomst een moord zou kunnen plegen. Intern werd dit in eerste instantie zelfs het ‘moordvoorspellingsproject’ genoemd. Zo kwam de bizarre technologie tot stand.

Deze AI-tool gaat in de toekomst moorden voorspellen

De burgerrechtenorganisatie Statewatch kwam het project op het spoor via een aantal Freedom of Information-verzoeken (de Britse versie van een WOB-verzoek). Hieruit bleek dat Het algoritme is getraind op politiedata van tussen de 100.000 en 500.000 mensen.

Dat gaat niet alleen om verdachten of veroordeelden. Ook slachtoffers, getuigen en mensen met psychische problemen, verslavingen of zelfs een handicap zijn in de data opgenomen.

Volgens Sofia Lyall van Statewatch is het hele AI-project een ramp in de maak: “Keer op keer toont onderzoek aan dat algoritmische systemen voor het ‘voorspellen’ van misdaad inherent gebrekkig zijn.”

En ze heeft een punt. Dit soort systemen zijn berucht om het versterken van bestaande vooroordelen. Dus als je data invoert uit een systeem dat al structureel discriminerend is (zoals de politie of het ministerie van Binnenlandse Zaken), dan krijg je een algoritme dat nĂłg meer structureel discrimineert.

Kunstmatige intelligentie is nog niet klaar voor de overheid

Het MoJ probeerde de gemoederen te bedaren door te zeggen dat dit project puur voor onderzoeksdoeleinden is. De tool zou gebruikt worden om beter te begrijpen welke mensen op proeftijd een risico vormen op het plegen van geweld. En er komt “te zijner tijd” een rapport.

Maar ja, dit is natuurlijk niet het eerste AI-project in de wereld van wetshandhaving dat de wenkbrauwen doet fronsen. Denk aan ShotSpotter, dat zogenaamd schietgeluiden opspoort (maar vaak fouten maakt), of aan politie die AI inzet om rapporten te schrijven (dat klinkt al als een slecht idee). Voeg daar nu een moordvoorspeller aan toe, en het plaatje is compleet.

Misschien is het handig om heel goed na te denken voordat we algoritmes carte blanche geven om te bepalen wie de slechterik is. Technologie kan nuttig zijn, absoluut. Maar als je begint met data die al bevooroordeeld is, dan creëer je geen objectieve handhaving. Je herhaalt gewoon het verleden, maar dan met algoritmes.

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste wat tech en culture te bieden heeft 🚀

De laatste ontwikkelingen iedere vrijdag in je mailbox? WANT houdt je op de hoogte!

Onderwerpen