Deel dit artikel

zelfrijdende wagens, gezichtsherkenningssoftware, gepersonaliseerde zoekresultaten… kunstmatige intelligentie is al lang niet meer weg te denken uit ons dagelijkse leven en vereenvoudigt het op allerlei vlakken. ook binnen het gerechtelijke apparaat kent kunstmatige intelligentie mogelijke toepassingen om de efficiëntie te verhogen in de vorm van robotrechters. die bieden opportuniteiten voor de automatisering van het gerecht, dat vaak wordt verweten tergend langzaam beslissingen te nemen. toch doen zij ook heel wat ethische en mensenrechtelijke vragen rijzen. daarnaast zullen steeds meer misdrijven in de toekomst worden gepleegd door robotdaders, met behulp van of door kunstmatige-intelligentiesystemen. dat roept vragen op over wie in dat geval verantwoordelijk is en of robotdaders zelf moeten kunnen worden gestraft.

Over robotrechters en -daders

Sofie Royer

Dat we maar beter omzichtig omspringen met de inzet van kunstmatige intelligentie binnen justitie kunnen we alvast leren uit landen zoals de Verenigde Staten van Amerika, waar die inzet al meer is doorgedrongen dan bij ons. Tot de toepassingen daar behoren de zogenaamde risicoanalysetools. Een veelbesproken tool is de Correctional Offender Management Profiling for Alternative Sanctions of kortweg compas. Rechters kunnen die tool gebruiken om in te schatten hoe agressief een gearresteerde is en hoe waarschijnlijk het is dat die opnieuw misdrijven zal plegen. Vervolgens kunnen ze op basis van een risicoscore beslissen om de gearresteerde naar de gevangenis te sturen en bepalen voor hoelang ze dat doen. De tool kan dus een reële impact hebben op iemands leven en vrijheid. Het is echter niet helemaal duidelijk hoe de tool werkt en welke methodologie en gegevens werden gebruikt om hem te ontwikkelen. Uit de handleiding valt af te leiden dat compas tegenwoordig gebruik maakt van kunstmatige intelligentie om gearresteerden onder te brengen in verschillende categorieën, zoals niet-gewelddadig chronisch druggebruik, huiselijk geweld en chronische alcoholproblematiek, laag risico enzoverder, op grond van een aantal risicofactoren, zoals strafrechtelijk verleden, financiële problemen en sociale omgeving.

Gegevens over de accuraatheid van de voorspellingen van compas zijn wel beschikbaar. In 2016 vergeleken onderzoekers 7 000 risicoscores van gearresteerden met hun latere (criminele) gedrag. Die studie van ProPublica toonde aan dat compas in het bijzonder zwarte gearresteerden onterecht aanwees als toekomstige criminelen of recidivisten en omgekeerd witte gearresteerden vaak onterecht als een laag risico inschatte. In 2018 bleek uit een andere studie dat 40,4 % van de voorspellingen van compas voor zwarte gearresteerden vals positief waren (dat wil zeggen dat het systeem voorspelde dat ze zouden recidiveren, maar dat ze dat niet deden), terwijl de vals positieven voor witte gearresteerden slechts 25,4 % bedroegen, een aanzienlijk verschil in nauwkeurigheid dus. Later gaf het bedrijf dat compas ontwikkelde toe dat de tool inderdaad uiteenlopende resultaten voor witte en zwarte gearresteerden of beklaagden geeft. De verklaring zou zijn dat zwarte mensen in het verleden meer misdrijven zouden hebben gepleegd en dat compas op basis van die historische gegevens werkt. Hoewel rechters hun beslissingen kunnen laten afwijken van de uitkomst van compas, blijken ze dat zelden te doen. Een mogelijke verklaring, die nog moet worden onderzocht, is dat ze te weinig kennis hebben over de werking van risicoanalysetools en er zich dus ook niet van bewust zijn dat de voorspellingen niet altijd even betrouwbaar zijn.

Richtlijnen schieten tekort om in elke individuele zaak tot een eerlijke uitkomst te komen

In haar boek When Machines Can Be Judge, Jury, and Executioner. Justice in the Age of Artificial Intelligence neemt Katherine B. Forrest kunstmatige-intelligentietools zoals compas onder de loep. Als US District Judge sprak ze zelf meer dan 500 straffen uit, steeds vanuit de persoonlijke overtuiging dat ze een faire beslissing nam en hierbij gesteund door de federale richtlijnen voor straftoemeting. Die bepalen bijvoorbeeld in welke mate het strafrechtelijke verleden van een veroordeelde of het type en de hoeveelheid drugs in de strafmaat moeten doorwegen. De richtlijnen zijn slechts een vertrekpunt en schieten tekort om in elke individuele zaak tot een eerlijke uitkomst te komen. De voorgestelde minimumstraf voor iemand die heroïne dealt, houdt bijvoorbeeld geen rekening met de omstandigheden waarin de beklaagde werd grootgebracht en het misbruik waaraan hij werd blootgesteld. Rechters kunnen die wel in overweging nemen in hun beslissingen door morele opvattingen en inzichten te laten meespelen. Ze kunnen zo tot heel uiteenlopende beslissingen komen in gelijkaardige zaken, maar ze nemen wel gemotiveerde, individuele beslissingen en streven ernaar in 100 procent van de zaken tot een rechtvaardige beslissing te komen, aldus Forrest.

Risicoanalysetools zijn daarentegen, volgens haar, ontworpen op een utilitaristische manier en daar knelt het schoentje. Dit wil zeggen dat ze ertoe moeten bijdragen de criminaliteit binnen een samenleving op de meest efficiënte manier te verminderen. Zelfs als het systeem foute voorspellingen maakt ten aanzien van enkele individuen (en hen ten onrechte laat opsluiten), kan de tool zijn doelstelling wel vervullen en kan de meerderheid van de bevolking gebaat zijn met het gebruik ervan. Dat uitgangspunt botst echter met de principes van een rechtvaardige berechting, wat de Grondwet van de VS voor elk individu vereist. Dat is overigens ook het doel van de mensenrechtenverdragen in Europa: die moeten er niet alleen voor zorgen dat de meerderheid van de burgers het goed heeft, maar ook dat de rechten van minderheden worden beschermd. Bovendien worden kunstmatige-intelligentiesystemen die overheden in het strafrechtapparaat inzetten meestal ontwikkeld door private bedrijven op een manier die weinig of zelfs helemaal niet transparant is. Daardoor is het onmogelijk te achterhalen hoe die systemen precies tot een bepaalde uitkomst komen. Vaak blijkt dat allerlei vooroordelen in die systemen zitten ingebakken. Dat leidt bijvoorbeeld tot minder rechtvaardige uitkomsten voor zwarte dan voor witte mensen, zoals al werd aangetoond voor compas, zelfs als rechters de tool louter als ondersteuning gebruiken. En dat is uiteraard problematisch voor het recht op een eerlijk proces in die individuele gevallen én in het algemeen, want hoe groter de foutenmarge, hoe groter het risico dat structurele ongelijkheden in een samenleving worden bestendigd. In haar boek is Forrest dus erg kritisch over kunstmatige-intelligentiesystemen, zoals compas, omdat ze een rechtvaardige justitie ondergraven. Niettemin pleit ze er niet voor om de inzet ervan binnen justitie helemaal af te zweren. Wel dringt volgens haar een grondige herdenking zich op en moeten we de controle over de kunstmatige-intelligentiesystemen heroveren. Zo zouden de principes van een rechtvaardige en eerlijke justitie in kunstmatige-intelligentiesystemen moeten worden geïncorporeerd, al verduidelijkt ze niet hoe dat kan gebeuren.

Hoe groter de foutenmarge, hoe groter het risico dat structurele ongelijkheden worden bestendigd

Een deel van Forrests bezwaren zijn uiteraard terecht. De voorspellingen van compas zijn weinig accuraat. Ter vergelijking: onderzoek toonde aan dat, wanneer willekeurig geselecteerde mensen met weinig tot geen expertise in strafzaken recidive voorspellen, ze dezelfde mate van accuraatheid bereiken. Als bovendien blijkt dat een technologie op grote schaal een bevolkingsgroep discrimineert, moeten we het gebruik ervan kritisch evalueren. Een aantal van de hoger geschetste problemen is echter niet eigen aan kunstmatige intelligentie, maar heeft te maken met de manier waarop die binnen de Amerikaanse justitie wordt toegepast. Zo verschuilen bedrijven die de toepassingen ontwikkelen zich achter bedrijfsgeheimen en intellectuele-eigendomsrechten om niet transparant te hoeven zijn over hoe de systemen werken en waarom ze tot bepaalde beslissingen komen, terwijl dat net essentieel is om te kunnen beoordelen of een systeem rechtvaardig is gebouwd.

Om kunstmatige intelligentie binnen justitie op een verantwoorde manier te kunnen inzetten, zijn er volgens mij (minstens) drie vereisten. Ten eerste moet de werking van de systemen voldoende inzichtelijk zijn (dit wordt ook wel explainable AI genoemd), zodat controle mogelijk is en de beslissingen voor betwisting vatbaar zijn. Net zoals (menselijke) rechters hun beslissing motiveren om het risico op onbewuste vooroordelen in hun besluitvorming tegen te gaan, moet het ook duidelijk zijn waarom een beklaagde een hoge of lage risicoscore kreeg van een systeem. Ten tweede moeten de systemen en de gegevens die worden gebruikt om ze te trainen een kwaliteitstoets doorstaan. Wanneer het kunstmatige-intelligentiesysteem een discriminerende dataset krijgt voorgeschoteld, leert het immers zelf te discrimineren (garbage in, garbage out). We moeten ons daarom bewust zijn van historische vooroordelen in datasets en die neutraliseren. Ten derde moeten de leden van de rechterlijke macht vertrouwd geraken met de systemen en hun mogelijke beperkingen en dus de uitkomst niet altijd blindelings volgen.

Als aan die vereisten voldaan is, kan de inzet van kunstmatige intelligentie binnen justitie zeker voordelen bieden. De automatisering van bepaalde taken zou kunnen worden overgelaten aan slimme systemen om de rechterlijke macht te ontlasten. Dat zal niet vanzelf gaan. Uit het voorbeeld van compas leren we wat de gevolgen zijn als innovatie niet voldoende omkaderd wordt. Strikte regulering lijkt noodzakelijk, zeker als kunstmatige-intelligentiesystemen in een gevoelige sector zoals justitie worden ingezet. Op Europees niveau wordt er ondertussen, binnen zowel de Raad van Europa als de Europese Unie, aan zo’n regelgevend kader gewerkt. Daarnaast moet de rechterlijke macht bereid zijn om zich in de werking van kunstmatige intelligentie te verdiepen en hiermee aan de slag te gaan.

De automatisering van bepaalde taken kan worden overgelaten aan slimme systemen

In onze contreien wordt kunstmatige intelligentie nog niet zo ruim ingezet binnen justitie, onder meer omdat de digitalisering er slechts met mondjesmaat wordt gerealiseerd. Binnen de vonnisfase zijn er weinig tot geen toepassingen bekend. Wel zijn er al wat experimenten met kunstmatige intelligentie bij de opsporing van misdrijven. Dat waren meteen erg omstreden gevallen, die aantonen dat een wettelijk kader met voldoende waarborgen vereist is. Zo lanceerde de politie in 2019 op de luchthaven van Zaventem een proefproject om beelden van gezochte criminelen te vergelijken met die van reizigers. Twee jaar later doorzocht de politie bij wijze van test de omstreden Amerikaanse databank Clearview AI om daders van kindermisbruik op te sporen. In die twee gevallen heeft het Controleorgaan op de Politionele Informatie, de instantie die toekijkt op de gegevensverwerking, de politie teruggefloten. Risico’s van discriminatie en schendingen van de privacy loeren immers om de hoek. Biometrische gegevens, die nodig zijn voor gezichtsherkenning, worden als gevoelige gegevens beschouwd en kunnen dus niet zomaar in databanken worden verzameld. Bovendien bleek in het verleden al dat gezichtsherkenningssystemen zwarte mensen minder goed herkennen, wat kan leiden tot valse beschuldigingen en zelfs gerechtelijke dwalingen.

Er gaan wel stemmen op om meer in te zetten op kunstmatige intelligentie om de werking van gerechtelijke procedures te versnellen en verbeteren, zodat rechters meer op hun eigenlijke taken kunnen focussen. Zulke systemen zouden in de eerste plaats administratieve processen vereenvoudigen, zoals de controle of een verzoek tijdig werd ingesteld. Een slim(mer) systeem zou de rechter een overzicht kunnen geven van gelijkaardige zaken of precedenten of zou in eenvoudige zaken, zoals verkeersovertredingen, zelfs het bedrag van de boete kunnen bepalen. De voormalige voorzitter van het Europees Mensenrechtenhof, Robert Spano, kondigde in 2021 aan dat de mogelijkheid om nieuwe verzoeken met behulp van kunstmatige intelligentie af te handelen werd bestudeerd. Nochtans worden er ook kanttekeningen gemaakt bij een te verregaande robotisering van justitie. Zo kan de onafhankelijkheid van de rechterlijke macht en dus ook het recht op een eerlijk proces van de rechtszoekende in het gedrang komen. Dat kan het geval zijn wanneer de private bedrijven die de tools ontwikkelen ook een invloed kunnen uitoefenen op de uitkomst van de kunstmatige-intelligentiesystemen. Zelfs als een (menselijke) rechter de uiteindelijke beslissing neemt, kan de uitkomst van het kunstmatige-intelligentiesysteem hem of haar onrechtstreeks beïnvloeden, bijvoorbeeld door de rangschikking van zoekresultaten.

Rechters zijn nog te weinig op de hoogte over wat kunstmatige intelligentie inhoudt en kan

In Nederland werkte strafrechter Manuella van der Put aan de Universiteit van Tilburg met kunstmatige intelligentie een theoretisch en praktisch systeem uit voor de afhandeling van eenvoudige verkeersovertredingen. Dat systeem kan bepaalde aspecten van een zaak automatisch controleren. Zo gaat het op basis van de informatie in het dossier na of het beroep op tijd werd ingesteld en of de boete werd betaald. Uit het onderzoek blijkt dat algoritmes heel goed op zoek kunnen gaan naar gelijkaardige zaken en beslissingen, maar dat het toch moeilijk blijft voor het algoritme om alle aspecten van een individuele zaak in rekening te brengen. Dat kan mogelijk tot onrechtvaardige beslissingen leiden. Verder besluit Van der Put dat rechters nog te weinig op de hoogte zijn over wat kunstmatige intelligentie precies inhoudt en kan. Ook dat is een risico als de systemen meer worden uitgerold. De algemene conclusie van haar onderzoek luidt dat de inzet van kunstmatige intelligentie zeker voordelen heeft op het vlak van efficiëntie en tijdswinst, maar dat (menselijke) rechters voor sommige beoordelingen, zoals juridische kwalificaties, op dit moment toch onmisbaar blijven.

Naast de vraag of en onder welke voorwaarden we robotrechters kunnen inzetten, rijst ook de vraag naar wat een gepaste maatschappelijke reactie is op misdrijven die door of met behulp van kunstmatige intelligentie worden gepleegd. Kunnen kunstmatige-intelligentietools met andere woorden als dader worden beschouwd en dus veroordeeld en gestraft? Denk bijvoorbeeld aan een zelfrijdende wagen die iemand omverrijdt of een pacemaker die het hart van zijn patiënt tot stilstand brengt. De vraag rijst wie in die gevallen (strafrechtelijk) aansprakelijk is, omdat er zoveel betrokken partijen zijn, zoals de ontwikkelaar van het systeem, de verkoper, de gebruiker… Een minderheid van de rechtsgeleerden is gewonnen voor het idee om een aparte rechtspersoonlijkheid voor kunstmatige-intelligentiesystemen te creëren, zodat ze kunnen worden gestraft en de discussie niet hoeft te gaan over wie nu precies aansprakelijk is. Vergelijk het met een bedrijf dat wordt vervolgd wegens bodemverontreiniging. Los van de bestuurders die te weinig voorzorgsmaatregelen namen, kan het bedrijf ook apart worden veroordeeld, weliswaar niet tot een gevangenisstraf, maar wel tot een geldboete.

Een aparte rechtspersoonlijkheid voor AI-systemen lijkt geen oplossing

Is dat zinvol voor kunstmatige-intelligentiesystemen? Om verschillende redenen lijkt de creatie van een nieuwe vorm van rechtspersoonlijkheid geen oplossing voor de problemen waarmee we in de toekomst te maken zullen krijgen. Ons strafrecht is immers gebaseerd op schuld. En schuld impliceert vrije wil. Wie geen vrije wil heeft, kan niet verantwoordelijk worden gehouden voor zijn of haar gedrag. Zo nemen we aan dat minderjarigen geen schuld kan treffen, omdat ze (nog) niet wetens en willens daden stellen. Ze kunnen dus niet worden gestraft (al bestaan er uitzonderingen op dat principe). Ook de bestuurder die in noodweer terecht komt en zo iemand aanrijdt, kan zich op overmacht beroepen en wordt evenmin veroordeeld. De eerste relevante vraag is daarom of kunstmatige-intelligentiesystemen een vrije wil hebben en dus schuldbekwaam zijn. In principe voeren ze commando’s uit op grond van wiskundige formules. In zo’n systeem is er geen ruimte voor arbitraire keuzes. Als kunstmatige-intelligentiesystemen geen vrije wil hebben, is een debat over schuld niet zinvol. Dat kan in de toekomst misschien veranderen, maar zover zijn we nog niet.

Verder rijst de vraag of de huidige straffen zinvol zijn wanneer ze aan een kunstmatige-intelligentiesysteem zouden worden opgelegd. Een straf kan verschillende functies hebben, gaande van vergelding en preventie tot herstel en re-integratie. De enige doelstelling die zinvol kan worden bereikt, is de beveiliging van de samenleving door bijvoorbeeld een op hol geslagen zelfrijdende wagen uit het vrije verkeer te halen. Daarvoor is echter niet vereist dat de straf tegen het systeem zelf wordt uitgesproken. De rechter kan de eigendom van gevaarlijke voorwerpen nu al ontnemen. Denk bijvoorbeeld aan de verbeurdverklaring en vernietiging van drugs. Zelfs als geen enkele beklaagde wordt veroordeeld, keert de inbeslaggenomen cocaïne niet terug naar de samenleving. Het echte debat dat gevoerd zou moeten worden, is wie er aansprakelijk is wanneer het misloopt: de ontwikkelaar, de producent, de gebruiker… Straffen uitgesproken tegen natuurlijke personen of bedrijven kunnen immers wel ontraden. Dat leidt ongetwijfeld tot moeilijke (juridische) vraagstukken over deelneming en medeplichtigheid en over wanneer de persoon achter het kunstmatige-intelligentiesysteem kan worden gestraft voor de acties van dat systeem.

Van de korte uitstap naar de robotdaders terug naar de robotrechters waarmee dit essay begon. Ook in onze contreien zullen kunstmatige-intelligentietoepassingen binnen justitie steeds meer ingang vinden. Die toepassingen kunnen zeker en vast een nuttig hulpmiddel blijken in tijden van opeenstapelende dossiers en aanslepende personeelstekorten. We mogen dus zeker het kind niet met het badwater weggooien. Vóórdat die systemen in de praktijk worden uitgerold, is het wel belangrijk stil te staan bij de mogelijke mensenrechtelijke en ethische vraagstukken. Duidelijke wetgeving en richtlijnen zijn noodzakelijk om die te ondervangen en de nodige waarborgen in te bouwen, evenals een opleiding voor rechters om hen bewust te maken van de mogelijke beperkingen. Want nobody’s perfect, ook kunstmatige-intelligentiesystemen vooralsnog niet.

Katherine B. Forrest, When Machines Can Be Judge, Jury, and Executioner. Justice in the Age of Artificial Intelligence. (Singapore: World Scientific Publishing, 2022).

Julia Dressel en Hany Farid, ‘The accuracy, fairness, and limits of predicting recidivism’, Science Advances, 2018, 4(1): 5580.

Jeffrey J. Rachlinski, Sheri Johnson, Andrew J. Wistrich en Chris Guthrie, ‘Does unconscious racial bias affect trial judges?’, The Notre Dame Law Review, 2009, 84: 1195-1246.

Sofie Royer werkt als onderzoeksexpert aan het Centre for IT and IP law en is geassocieerd met het Instituut voor Strafrecht, beide aan de KU Leuven. Daarnaast is ze als gastdocent verbonden aan de ULiège en de UAntwerpen. Tegenwoordig verdiept ze zich hoofdzakelijk in cybercriminaliteit en de mensenrechtelijke vraagstukken bij het gebruik van nieuwe technologieën in strafzaken.

Deel dit artikel
Gerelateerde artikelen