Deel dit artikel

zelfrijdende wagens, gezichtsherkenningssoftware, gepersonaliseerde zoekresultaten… kunstmatige intelligentie is al lang niet meer weg te denken uit ons dagelijkse leven en vereenvoudigt het op allerlei vlakken. ook binnen het gerechtelijke apparaat kent kunstmatige intelligentie mogelijke toepassingen om de efficiëntie te verhogen in de vorm van robotrechters. die bieden opportuniteiten voor de automatisering van het gerecht, dat vaak wordt verweten tergend langzaam beslissingen te nemen. toch doen zij ook heel wat ethische en mensenrechtelijke vragen rijzen. daarnaast zullen steeds meer misdrijven in de toekomst worden gepleegd door robotdaders, met behulp van of door kunstmatige-intelligentiesystemen. dat roept vragen op over wie in dat geval verantwoordelijk is en of robotdaders zelf moeten kunnen worden gestraft.

Over robotrechters en -daders

Sofie Royer

Dat we maar beter omzichtig omspringen met de inzet van kunstmatige intelligentie binnen justitie kunnen we alvast leren uit landen zoals de Verenigde Staten van Amerika, waar die inzet al meer is doorgedrongen dan bij ons. Tot de toepassingen daar behoren de zogenaamde risicoanalysetools. Een veelbesproken tool is de Correctional Offender Management Profiling for Alternative Sanctions of kortweg compas. Rechters kunnen die tool gebruiken om in te schatten hoe agressief een gearresteerde is en hoe waarschijnlijk het is dat die opnieuw misdrijven zal plegen. Vervolgens kunnen ze op basis van een risicoscore beslissen om de gearresteerde naar de gevangenis te sturen en bepalen voor hoelang ze dat doen. De tool kan dus een reële impact hebben op iemands leven en vrijheid. Het is echter niet helemaal duidelijk hoe de tool werkt en welke methodologie en gegevens werden gebruikt om hem te ontwikkelen. Uit de handleiding valt af te leiden dat compas tegenwoordig gebruik maakt van kunstmatige intelligentie om gearresteerden onder te brengen in verschillende categorieën, zoals niet-gewelddadig chronisch druggebruik, huiselijk geweld en chronische alcoholproblematiek, laag risico enzoverder, op grond van een aantal risicofactoren, zoals strafrechtelijk verleden, financiële problemen en sociale omgeving.

Gegevens over de accuraatheid van de voorspellingen van compas zijn wel beschikbaar. In 2016 vergeleken onderzoekers 7 000 risicoscores van gearresteerden met hun latere (criminele) gedrag. Die studie van ProPublica toonde aan dat compas in het bijzonder zwarte gearresteerden onterecht aanwees als toekomstige criminelen of recidivisten en omgekeerd witte gearresteerden vaak onterecht als een laag risico inschatte. In 2018 bleek uit een andere studie dat 40,4 % van de voorspellingen van compas voor zwarte gearresteerden vals positief waren (dat wil zeggen dat het systeem voorspelde dat ze zouden recidiveren, maar dat ze dat niet deden), terwijl de vals positieven voor witte gearresteerden slechts 25,4 % bedroegen, een aanzienlijk verschil in nauwkeurigheid dus. Later gaf het bedrijf dat compas ontwikkelde toe dat de tool inderdaad uiteenlopende resultaten voor witte en zwarte gearresteerden of beklaagden geeft. De verklaring zou zijn dat zwarte mensen in het verleden meer misdrijven zouden hebben gepleegd en dat compas op basis van die historische gegevens werkt. Hoewel rechters hun beslissingen kunnen laten afwijken van de uitkomst van compas, blijken ze dat zelden te doen. Een mogelijke verklaring, die nog moet worden onderzocht, is dat ze te weinig kennis hebben over de werking van risicoanalysetools en er zich dus ook niet van bewust zijn dat de voorspellingen niet altijd even betrouwbaar zijn.

Het vervolg van dit artikel lees je in de papieren versie van Karakter 80. De volledige tekst verschijnt later online.

Deel dit artikel
Gerelateerde artikelen