Een kunstmatige intelligentie die misdaadgegevens doorspit, kan de plaats van misdaden in de week daarop voorspellen met 90 procent nauwkeurigheid. Wel zijn er zorgen over hoe zulke systemen met vooroordelen omgaan.

AI-onderzoeker Ishanu Chattopadhyay van de Universiteit van Chicago en zijn collega’s creëerden een kunstmatige intelligentie die misdaadgegevens uit Chicago van 2014 tot eind 2016 analyseerde. Daarna voorspelde het model voor de weken na deze periode de waarschijnlijkheid dat misdrijven plaatsvonden op bepaalde locaties in de stad. Het model verdeelde Chicago daartoe in vierkanten met een doorsnede van ongeveer driehonderd meter. De nauwkeurigheid van zijn voorspellingen was 90 procent.

Het model werd ook getraind en getest op gegevens van zeven andere grote Amerikaanse steden. Daarbij waren zijn prestaties vergelijkbaar.

AI verbetert hoekschop
LEES OOK

AI verbetert hoekschop

Kunstmatige intelligentie kan voetbaltrainers helpen bij het verbeteren van hoekschoppen. Experts vinden de AI-suggesties voor hoekschopopstellingen i ...

Racisme

Eerdere pogingen om AI te gebruiken om criminaliteit te voorspellen bleken raciale vooroordelen in stand te houden. Daarom is deze technologie controversieel.

De afgelopen jaren heeft de politie van Chicago een algoritme getest die een lijst opgestelde van mensen die het grootste risico liepen om betrokken te raken bij een schietpartij, als slachtoffer of als dader. De details van het algoritme en de lijst werden aanvankelijk geheim gehouden, maar toen ze werden vrijgegeven bleek dat 56 procent van de zwarte mannen in de stad tussen 20 en 29 jaar erop voorkwamen.

Minority Report

Chattopadhyay erkent dat de gegevens die zijn model gebruikt ook vertekend zullen zijn door vooroordelen. Er zijn wel inspanningen gedaan om het effect van deze vertekening te verminderen. Bovendien wijst de AI geen verdachten aan, maar mogelijke plaatsen van misdrijven. ‘Het is niet Minority Report’, zegt hij.

’De middelen voor wetshandhaving zijn niet oneindig. Dus die wil je optimaal inzetten’, stelt Chattopadhyay. ‘Het zou geweldig zijn als je kon weten waar moorden gaan gebeuren.’ Toch denkt Chattopadhyay dat de voorspellingen van de AI beter gebruikt kunnen worden voor beleid op hogere bestuursniveaus, dan om politiemiddelen toe te wijzen. Hij heeft de gegevens en het algoritme openbaar gemaakt, zodat andere onderzoekers de resultaten kunnen nalopen.

Arrestaties

De onderzoekers gebruikten de gegevens ook om uit te zoeken hoe menselijke vooroordelen het politiewerk beïnvloeden. Ze analyseerden het aantal arrestaties na misdrijven in verschillende buurten, met verschillende sociaaleconomische niveaus. Hieruit bleek dat misdrijven in rijkere buurten tot meer arrestaties leidden dan in armere buurten. Dat wijst op vooringenomenheid in de reactie van de politie.

Criminoloog Lawrence Sherman van het Cambridge Centre for Evidence-Based Policing in het Verenigd Koninkrijk vindt het zorgwekkend dat in de studie reactieve en proactieve politiegegevens zijn opgenomen. Dat wil zeggen: misdrijven die (meestal) worden geregistreerd na aangifte én misdrijven die worden geregistreerd omdat de politie ernaar op zoek gaat. Vooral dit laatste type gegevens is vatbaar voor vertekening door menselijke vooroordelen. Sherman: ’Dit kan een weerspiegeling zijn van opzettelijke discriminatie door de politie in bepaalde gebieden.’