Deel dit artikel

artificiële intelligentie als onderzoeksdomein beleeft op dit moment een ‘zomer’ als nooit tevoren. ai krijgt vorm door toedoen van mensen, maar geeft de samenleving zelf ook vorm, en kan een aanzienlijke impact hebben op mensenrechten, democratie en rechtsstaat. om die reden hebben ook regelgevers tegenwoordig oog voor onze toenemende ai-afhankelijkheid en de maatschappelijke vraagstukken die ermee gepaard gaan. in hun overwegingen en in het ruimere debat over ai neemt ethiek een steeds centralere rol in.

Vijf(tig) tinten AI-ethiek

Nathalie A. Smuha

Men kan er niet meer omheen. Artificiële intelligentie – vandaag meestal afgekort tot AI, een teken dat quasi iedereen er inmiddels mee vertrouwd is – is geïntegreerd in zowat elke dimensie van ons bestaan. Vaak onbewust, zoals wanneer Spotify ons muzieksuggesties geeft, of wanneer we in Zaventem de poortjes van de douane doorlopen. Soms heel bewust, zoals wanneer we gefascineerd ChatGPT uittesten, of in het nieuws lezen dat iemand ten onrechte gearresteerd werd omwille van ‘bias’ in gezichtsherkenningssoftware. Hoewel AI als onderzoeksdomein al bijna een eeuw bestaat (en al verschillende ‘zomers’ en ‘winters’ achter de rug heeft), is de technologie vooral sinds de laatste twee decennia in opmars. De drievoudige combinatie van verhoogde computerkracht, een grotere beschikbaarheid van digitale data en aanzienlijke wetenschappelijke doorbraken zorgde ervoor dat AI een zomer beleeft als nooit tevoren.

Ook buiten de labo’s neemt de AI-hype toe, mede gestuwd door (sensationele) berichtgeving en bedrijven die nieuwe financiering willen aantrekken. Eveneens groeit het besef rond de keerzijde van de AI-medaille. Wij mensen geven de technologie vorm. We kiezen welke functionaliteiten en beperkingen ze heeft en hoe we ze willen inzetten in de samenleving. Maar eens ze gebruikt wordt, vormt de technologie ons op haar beurt, zelfs zonder dat we er erg in hebben. Deze wederkerige beïnvloeding kan zowel positief als negatief zijn, maar is steeds het gevolg van menselijke keuzes en handelingen. Voordelen zijn er ongetwijfeld – maar de vraag is uiteraard: voor wie? Ten koste waarvan? En wie heeft de macht om deze afweging te maken? Mede dankzij kritische onderzoekers, mensenrechtenorganisaties en sterke journalistiek weten we intussen dat het gebruik van de technologie ook een negatieve impact kan hebben op mensenrechten, democratie en de rechtsstaat – de heilige drie-eenheid van constitutionele liberale samenlevingen. Hoe groter de maatschappelijke invloed, hoe meer vraag er is naar democratische verantwoording van degenen die de onderliggende keuzes maken.

Hoe meer maatschappelijke invloed, hoe meer vraag naar democratische verantwoording

Het hoeft daarom niet te verbazen dat ook regelgevers inmiddels oog hebben gekregen voor de maatschappelijke vraagstukken die gepaard gaan met onze toenemende AI-afhankelijkheid. Stapsgewijs zien ze zich genoodzaakt om hun AI-strategieën (voorheen vooral gericht op het boosten van de economie) aan te vullen met ethische richtlijnen, en in sommige gevallen zelfs (voorstellen voor) nieuwe regelgeving. We kunnen in het midden laten of ze dit doen omdat ze oprecht bezorgd zijn om de risico’s van AI, of omdat ze met een normatief vernislaagje hopen onze bezorgdheden weg te nemen zodat we de economische voordelen ervan zeker niet mislopen. Wat echter niet te ontkennen valt, is dat ethiek een steeds centralere rol inneemt in het maatschappelijke debat rond AI. Inmiddels spreekt men ook steeds vaker over ‘AI-ethiek’, een term die allesbehalve eenduidig is en door tal van actoren wordt gebruikt.

In zijn boek AI Ethics (2020) gebruikt Mark Coeckelbergh de term als overkoepelende titel voor de vele ethische reflecties die oprijzen in de context van AI. Hij biedt een compact en tegelijk veelomvattend overzicht van de meest prangende inhoudelijke AI-controverses die men in de samenleving kan waarnemen, van vragen rond transhumanisme en de definitie van intelligentie tot de manieren waarop we waarden als transparantie en non-discriminatie kunnen beschermen in een AI-gedreven wereld. Zowat alle relevante ethische vraagstukken passeren de revue, evenals de veelheid aan antwoorden die daarop geformuleerd kunnen worden. Coeckelbergh gaat vooral descriptief te werk, en toont aan dat er geen simpele oplossingen bestaan voor de open kwesties waarmee deze nieuwe technologie ons confronteert. Hij spoort ons ook aan om na te denken over welk AI-relaas aan de grondslag van deze vragen ligt, en legt uit hoe beleidsmakers proberen consensus te vinden rond bepaalde ethische principes die ze hopen te verankeren in hun beleidsinitiatieven. Het boek maakt ook duidelijk dat de interpretatie van deze ethische principes sterk kan verschillen afhankelijk van waar het debat gevoerd wordt, wie er rond de discussietafel zit, en wat de onderliggende waarden en drijfveren zijn.

Niet alleen ethische principes, maar ook de term ‘AI-ethiek’ zelf kan echter zeer verschillende invullingen krijgen, die op hun beurt ook de zienswijze beïnvloeden van de rol die zowel AI als ethiek in onze samenleving behoren te spelen. Met andere woorden, er bestaat niet één maar zowat vijftig tinten AI-ethiek. Die verschillende tinten kunnen niet enkel worden toegeschreven aan uiteenlopende antwoorden op de inhoudelijke vraagstukken over AI, maar ook aan verschillende visies over de rol van ethiek. Hoewel deze visies zelden gepreciseerd worden, en meestal slechts impliciet aan bod komen als onderliggende basis voor inhoudelijke discussies, is de functie die men aan ethiek toeschrijft fundamenteel voor de invloed die ze kan hebben op de samenleving. Laat me daarom, in wat volgt, vijf tinten AI-ethiek nader bespreken. Deze tinten zijn niet exhaustief en komen zowel complementair als contrair voor in het maatschappelijke debat.

Visies op de rol van ethiek komen vaak slechts impliciet aan bod als onderliggende basis voor inhoudelijke discussies

In eerste instantie kan AI-ethiek beschouwd worden als theoretische discipline. Het gaat dan om een subcategorie van toegepaste ethiek of praktische filosofie, die een kader aanreikt voor de kritische reflectie over ons moreel handelen in de context van AI. Zolang AI niet wordt gezien als zelfstandig moreel agent, betreft AI-ethiek het morele handelen van de mensen die AI ontwerpen, ontwikkelen en gebruiken, en niet de handelingen van AI zelf (hoewel sommige filosofen, zoals David Gunkel, zich ook alvast buigen over dat laatste). Gezien er een veelvoud aan ethische theorieën bestaat die niet altijd met elkaar te rijmen vallen, zal een theoretische benadering van AI-ethiek geen eenduidig antwoord bieden op praktische ethische vragen. Dat is niet per se een zwakte, maar kan zelfs worden gezien als een sterkte, aangezien het ons uitnodigt om door verschillende ethisch-theoretische lenzen naar de rol van AI in de samenleving te kijken. Reflecteren over wat een kantiaanse of utilitaristische benadering van AI-gerelateerd handelen zou inhouden kan tot verschillende conclusies leiden, maar hoeft ons niet te verleiden tot ethisch relativisme. Deze reflectie moedigt ons aan om onze perspectieven te verbreden en om onze ethische intuïties beter te conceptualiseren en te rechtvaardigen wanneer we over AI debatteren. Het is daarom wel degelijk nuttig om deze oefening aan te gaan en te bestuderen welke morele inzichten bepaalde ethisch-theoretische benaderingen ons kunnen bieden. Dit was ook het startpunt van de Europese ‘High-Level Expert Group on AI’, die in haar ethische richtlijnen zowel kantiaanse als utilitaristische elementen incorporeerde, door te stellen dat we ‘de voordelen van AI moeten maximaliseren en de risico’s minimaliseren’ en tegelijkertijd ieders menselijke waardigheid moeten blijven respecteren. Maar een theoretische benadering is niet altijd veelzeggend voor degenen die AI-systemen ontwikkelen en gebruiken in de praktijk. Op een bepaald moment zal de kloof tussen theorie en praktijk dan ook overbrugd moeten worden.

Een tweede invulling van AI-ethiek beoogt precies deze vertaalslag te maken. Deze meer praktische benadering komt vooral uit de hoek van AI-ingenieurs en datawetenschappers, en richt zich op het incorporeren van ethische principes in AI-systemen. AI-ethiek staat hier voor het aligneren van de technologie met bepaalde waarden, ook wel value alignment genoemd. Dit gebeurt desnoods door het rechtstreeks codificeren van ethische normen, die afgeleid kunnen worden uit bestaande of nieuwe ethisch-theoretische kaders. Zo gaat men trachten om principes als ‘transparantie’ en ‘fairness’ te definiëren op een manier die in het AI-systeem kan worden geïncorporeerd. Fairness kan dan worden uitgedrukt als een functie waarvoor het algoritme geoptimaliseerd wordt, door bijvoorbeeld in te stellen dat de output gelijk verdeeld moet zijn tussen mannen en vrouwen. Transparantie kan in het ontwerp worden meegenomen door het systeem bijvoorbeeld te voorzien van automatische logs die bijhouden welke berekeningen er worden gemaakt of wie er toegang vraagt tot het systeem.

Het risico bestaat dat ethiek gereduceerd wordt tot een set van verifieerbare technische principes

Het gaat dus om een relatief technische opvatting van AI-ethiek, met als doel om de ontwikkeling en het gebruik van AI in goede banen te leiden – of alleszins om mis-alignering te vermijden, zodat het voor ons als mensen veilig en vooral ‘controleerbaar’ blijft. Stuart Russells boek Human Compatible: Artificial Intelligence and the Problem of Control (2019) is hier een goed voorbeeld van. Hoewel dit doel op zich verdienstelijk is, bestaat het risico dat ethiek in deze invulling onbewust gereduceerd wordt tot een set van verifieerbare technische principes, waarbij uiteindelijk vooral de technologie centraal staat in plaats van de mens. AI is hier een vanzelfsprekend gegeven dat niet in vraag wordt gesteld, en het is de taak van AI-ethiek om de technologie achterna te hollen en in de juiste richting te blijven sturen. Als mens kunnen we enkel, net als Frankenstein, hopen dat we onze eigen creaties de baas kunnen blijven, maar het nut van de creatie zelf wordt niet in twijfel getrokken.

Een variant hiervan, die eerder uit commerciële hoek komt, beschouwt AI-ethiek als een vorm van compliance. Aan de hand van handige checklists, kpi’s en praktische targets worden ethische principes vertaald naar een lijst van regeltjes waar AI-ontwikkelaars en -gebruikers rekening mee moeten houden om juist te handelen en om kritiek van consumenten en overheden te vermijden. Dit is de AI-ethiek van consultancies, van tabellen en vinkjes, van periodieke audits, en van praktische todolists. Jess Morley en collega’s hebben het in deze context over Ethics-as-a-service: A Pragmatic Operationalisation of AI Ethics (2021). De auteurs distantiëren zich expliciet van hoe big tech AI-ethiek technocratisch interpreteert en schuiven hun concept naar voren als een ethische visie die onder andere gegrond is in Habermas’ discursieve ethiek, waarbij men normatieve waarden tracht te identificeren via een open discours. De auteurs menen dat zo’n discours gestimuleerd kan worden door een vragenlijst voor te leggen aan AI-ontwikkelaars en -gebruikers, die hen aanmoedigt om een vooruitziende ethische analyse uit te voeren (een techniek die ook de hierboven aangehaalde Europese High-Level Expert Group on AI in haar richtlijnen verwerkte). Toch komt ook deze conceptualisering – in een gepolijst jasje – uiteindelijk neer op een shift van bredere ethische reflectie naar ‘procedurele regels’ of ‘checklists’. Het doel is vooral om het voor AI-ontwikkelaars makkelijker te maken om aan AI-ethiek te doen en ‘compliant’ te zijn met diens vereisten.

Dit brengt ons bij een vierde invulling, die deels voortspruit uit de derde: AI-ethiek als voorloper van AI-regulering. Deze visie wordt vooral onderschreven door formalistische juristen, die ethiek louter als een ‘niet-serieuze’ versie van het recht zien. Zowel recht als ethiek zijn immers normatief geladen, maar anders dan wettelijke normen zijn ethische principes niet-bindend, en dus ook niet afdwingbaar voor de rechtbank. Als we bepaalde ethische principes écht belangrijk vinden, zo gaat de redenering, verankeren we ze daarom in het recht, dat dus in feite ‘superieur’ is aan ethiek. Zolang de discussie op het niveau van AI-ethiek in plaats van AI-recht blijft, kunnen we actoren die deze principes negeren niet sterk genoeg ter verantwoording roepen. Met andere woorden: deze visie beschouwt AI-ethiek als een ideaal excuus voor organisaties die onbeteugeld hun AI-activiteiten willen voortzetten, zonder al te veel restricties. Het risico bestaat dat organisaties die een inspanning doen om ‘compliant’ te zijn met AI-ethiek dit strategisch inzetten als argument om geen nieuwe wetgeving (die wél een obligatoir effect zou hebben) aan te nemen. Immers, zolang ethische principes vrijwillig worden nageleefd, hoeft het recht hier niet in tussen te komen – of dat is althans de claim die aan sommige technologiebedrijven wordt toegewezen: ‘ethics-washing’, of het veinzen van ethische bekommernis voor pr-doeleinden en om wetgeving uit te stellen. Dit heeft bepaalde juristen ertoe aangezet om AI-ethiek in zijn geheel te verwerpen en te opperen dat we ons beter exclusief zouden bezighouden met AI-recht. Hoewel deze bezorgdheid uiteraard relevant is, reduceert deze visie ethiek in feite tot een zwakker afkooksel van recht, wat voorbijgaat aan de noodzakelijke en complementaire rol die beiden spelen. Het kind dreigt samen met het badwater te worden weggegooid, zonder begrip op te brengen voor het feit dat ethiek veel méér is dan het vrijwillig (al dan niet) volgen van regels tot ze verankerd worden in het recht.

Sommige organisaties zijn compliant met AI-ethiek om nieuwe, bindende wetgeving te vermijden

Het is dan ook een vijfde, bredere invulling van AI-ethiek die ik graag wat meer op de voorgrond zou zien treden in het maatschappelijke debat rond AI. In plaats van een reductie tot theoretisch-relativistisch kader, compliancechecklist, of inferieure vervanger van het recht kan AI-ethiek ons ook nopen tot een diepere reflectie over hoe we als mensen omgaan met elkaar, welke soort samenleving we ambiëren, wat het betekent om een betekenisvol leven te leiden in deze complexe 21ste eeuw, en welke rol AI daar al dan niet in kan spelen. Als we, zoals de filosoof Emmanuel Levinas voorstelde, ethiek als ‘eerste filosofie’ beschouwen, als fundamenteel onderdeel van ons intersubjectieve bestaan en van de verantwoordelijkheid die we inherent voor elkaar dragen, wordt het meteen duidelijk hoe beperkt en beperkend de hierboven besproken invullingen zijn. In plaats van de technologie voorop te zetten en te bekijken hoe we ervoor kunnen zorgen dat AI onze waarden niet schendt, kunnen we ook eerst collectief stilstaan bij wat het voor ons betekent om ethisch met elkaar en met de natuur om te gaan, welk mensbeeld we willen behouden of versterken, en of en hoe de technologie hieraan kan bijdragen – en niet andersom. Op basis van die reflectie kunnen we dan ook debatteren welke AI-toepassingen we in de samenleving willen stimuleren en welke net niet; hoe we de technologie willen reguleren en welke mechanismen we hiervoor best inzetten; en hoe we organisaties ter verantwoording kunnen roepen als ze dit niet doen. Bovendien kunnen we op deze manier ook bekijken of we AI-systemen al dan niet kunnen inzetten om het belang dat we hechten aan intersubjectiviteit en verantwoordelijkheid net te versterken.

Deze vijfde invulling is eveneens slechts één tint AI-ethiek, en hoewel ze een meer overkoepelende visie omvat, staat ze niet los van de andere. Zo zal kennis over verschillende ethisch-theoretische kaders een belangrijk element zijn om deze reflectie op nuttige wijze aan te gaan, en zullen we nog steeds moeten bekijken hoe we de conclusies ervan ook praktisch vorm kunnen geven. Men zal ook rekening moeten houden met het feit dat deze reflectie niet altijd tot eenduidige oplossingen zal leiden, zeker binnen een pluralistische samenleving. Maar de waarde die we überhaupt hechten aan pluraliteit komt vóór de technologie, en kan ons informeren over welke AI-toepassingen we hiermee compatibel achten. Dit veronderstelt echter eerst een bredere moreel-kritische reflectie over ons eigen intersubjectieve handelen in de moderne wereld, zonder meteen naar reductionistische technische of juridische oplossingen te zoeken. Het is net daar dat AI-ethiek een cruciale rol te vervullen heeft, maar enkel indien we er als samenleving de nodige ruimte voor creëren. Laten we daarom waakzaam blijven tegenover al te gelimiteerde interpretaties van de onderliggende rol van ethiek in onze maatschappij – een verantwoordelijkheid die we met zijn allen dragen, en die enkel in belang zal toenemen.

Mark Coeckelbergh, AI Ethics. (Cambridge, MA: MIT Press, 2020).

Stuart Russell, Human Compatible Artificial Intelligence and the Problem of Control. (New York, NY: Viking Press, 2019).

Jess Morley, Anat Elhalal, Francesca Garcia, Libby Kinsey, Jakob Mökander en Luciano Floridi, ‘Ethics as a Service: A Pragmatic Operationalisation of AI Ethics’, Minds & Machines, 31 (2021), 239-256.

Nathalie A. Smuha is rechtsgeleerde en filosofe aan de Faculteit Rechtsgeleerdheid van KU Leuven. Haar onderzoek ligt op het snijvlak van recht, filosofie en technologie en spitst zich toe op de impact van AI op mensenrechten, democratie en de rechtsstaat. Ze is de academisch coördinator van de KU Leuven Summer School on the Law, Ethics and Policy of AI, en lid van het Leuven.AI Instituut en het Digital Society Instituut. Sinds september 2023 is ze tevens als deeltijds docent AI en Recht verbonden aan het Centrum voor IT- en IP-recht (CITIP). Naast haar academische activiteiten adviseert ze regelmatig overheden en internationale organisaties over AI-beleid.

Deel dit artikel
Gerelateerde artikelen