De aandacht voor de maatschappelijke gevolgen van artificiële intelligentie blijft onverminderd groot. Gezien de veelzijdigheid van deze technologie is het zinvol haar vanuit uiteenlopende perspectieven te benaderen. De politieke filosofie is hiervoor uitermate geschikt: haar kernwaarden – vrijheid, gelijkheid en rechtvaardigheid – vormen een onmisbaar kompas voor het gebruik van AI en de inrichting van onze samenleving.
Wat goede AI is, is óók een politiek-filosofische vraag
Juliet van Rosendaal
Artificiële intelligentie is volop in ontwikkeling, en de maatschappij ontwikkelt mee. Op zich is dit niets vreemds. Iedere nieuwe technologie brengt immers, in meer of mindere mate, veranderingen teweeg in het doen en laten van mensen. E-bikes laten de ouderen weer fietsen, vapes laten de jongeren weer roken, en ChatGPT laat de studenten een bachelorscriptie schrijven in een avond tijd. Tegelijkertijd bestaat er geen noodzakelijk verband tussen de introductie van een nieuwe technologie en veranderingen in het dagelijks leven. Videobellen bestaat al decennia, maar het is pas sinds de COVID-19-pandemie dat we duidelijk moeten maken of we online of ’in het echt’ afspreken. De waterfles is allesbehalve een hoogtechnologische innovatie, maar omdat experts het belang van voldoende water drinken benadrukken, is het de laatste jaren voor velen de norm geworden er altijd een bij zich te hebben. En het gebruik van mobiele telefoons wordt juist teruggedrongen, op scholen en in de toekomst misschien ook op andere plekken. Het is dus niet zo dat de technologische beïnvloeding van de maatschappij eenrichtingsverkeer is. Evenzeer bepalen wij welke technologie we gebruiken en welke eisen we daaraan stellen. In de wisselwerking tussen technologie en maatschappij komen telkens veranderende normen tot stand.
We bevinden ons dan ook midden in het proces van hoe we AI een plaats geven in onze maatschappij. Een eigenschap van AI die deze opgave allicht uitdagender maakt dan bij andere technologieën is dat AI een zeer veelzijdige technologie is. Dankzij ChatGPT kwam het grotere publiek voor het eerst in aanraking met tekstgeneratie, maar dat is maar één toepassing van AI. De technologie kan in principe worden toegepast op alle gebieden met voldoende beschikbare data – en dat zijn er anno 2025 behoorlijk veel: van gezichtsherkenning, tot weersvoorspelling, tot tumordetectie. Om die veelzijdigheid te duiden omschrijft de Nederlandse Wetenschappelijke Raad voor het Regeringsbeleid (WRR) AI als een systeemtechnologie. Dit verwijst naar hoe AI net als andere systeemtechnologieën, zoals de stoommachine en elektriciteit, niet op zichzelf staat maar wordt geïntegreerd in allerlei (reeds bestaande) technologische systemen. Zo konden tijdens de industriële revolutie nieuwe schepen, drukpersen en ploegen worden ontwikkeld die allemaal op stoomkracht werkten. Ook AI is als het ware een toevoeging aan de reeds bestaande digitale infrastructuur van computers, netwerkverbindingen en servers, technologieën die op hun beurt, in onze informatiesamenleving, in veel verschillende contexten worden gebruikt. AI is dus zeer breed inzetbaar, wat bijgevolg zorgt voor brede, ofwel systemische verandering, aldus de WRR.
Deze visie van de WRR geeft des te meer reden om stil te staan bij hoe we AI willen gebruiken, en welke eisen we willen stellen aan AI. De afgelopen jaren krijgen deze vragen gelukkig steeds meer aandacht, zowel in het publieke debat als in academische, beroepsmatige en beleidsmatige discussies. Hieruit zijn verschillende initiatieven voortgekomen die ethische richtlijnen hebben opgesteld voor het ontwikkelen van AI. Het idee van dergelijke richtlijnen is dat ze in principe op alle AI-systemen van toepassing zijn en helpen om ‘onwenselijke’ effecten van AI-systemen op de maatschappij te voorkomen. Zo stelde de Europese Commissie hiervoor een expertgroep aan bestaande uit ingenieurs, filosofen, ethici, rechtsgeleerden en professionals, die, in dialoog met een burgerpanel, in 2019 de Ethics Guidelines for Trustworthy AI opleverde.
De Europese Commissie heeft een AI-wet opgesteld, maar daarmee is de kous nog niet af
Volgens de expertgroep berust ethisch verantwoorde AI op vier kernprincipes: ‘respect voor de menselijke autonomie’ (‘respect for human autonomy’), ‘het voorkomen van schade’ (‘prevention of harm’), ‘rechtvaardigheid’ (‘fairness’) en ‘verklaarbaarheid’ (‘explicability’). Zo doelt dat eerste principe erop dat AI-systemen gebruikers niet mogen manipuleren of misleiden, bijvoorbeeld wanneer ze zo zijn ontwikkeld dat ze als onderdeel van een socialemediaplatform of streamingdienst vooral de content aanbevelen die de gebruiker langer online houdt in plaats van content die relevant is (denk kattenvideo’s versus de tourdata van je favoriete band). Het tweede principe komt tegemoet aan een brede eis van veiligheid, waarbij een AI-systeem de mentale en fysieke integriteit van mensen niet schaadt. Zo moet een zelfrijdende auto voldoende betrouwbaar functioneren, zodat ongelukken zo veel mogelijk voorkomen kunnen worden. Rechtvaardigheid, het derde principe, is erop gericht dat alle mensen die onderworpen worden aan een (deels) op AI-gebaseerd oordeel gelijk en eerlijk behandeld worden. Dit principe voorkomt dat iemand bijvoorbeeld bij een sollicitatieprocedure of hypotheekaanvraag benadeeld wordt omwille van een AI-voorspelling op basis van discriminerende en irrelevante eigenschappen, zoals geslacht of postcode. Verklaarbaarheid vraagt dat AI-ontwikkelaars zo goed mogelijk inzicht geven in het systeem, door bijvoorbeeld te communiceren over welke data en welke algoritmes gebruikt zijn.
De principes van de richtlijnen van de Europese Commissie (en die van vergelijkbare initiatieven) zijn nogal abstract. Ze vormen in de eerste plaats een conceptueel antwoord op de vraag wat voor AI we precies willen. De praktische vragen die hier dan ook dikwijls op volgen, zijn hoe de principes naar de praktijk vertaald moeten worden, en hoe we ons ervan kunnen vergewissen dat AI-ontwikkelaars deze principes effectief naleven. Wetgeving vormt een antwoord op beide vragen, aangezien wetten enerzijds concreet genoeg moeten zijn om te kunnen gebruiken in rechtspraak, en anderzijds kan het naleven van wetten worden afgedwongen. De Europese Commissie heeft dan ook, voortbouwend op de ethische richtlijnen, de AI-wet opgesteld. Deze trad afgelopen jaar augustus in werking.
Maar daarmee is de kous nog niet af. Of de AI-wet het gewenste effect heeft, moet zich nog uitwijzen, en daarnaast blijft het überhaupt ter discussie staan wat die gewenste effecten eigenlijk moeten zijn. Er zijn evenzeer critici die vinden dat de AI-wet niet streng genoeg is omdat mensenrechten niet goed genoeg beschermd worden, net als critici die vinden dat de AI-wet te streng is en innovatie in de weg zit. En terwijl deze discussie wordt voortgezet, en we ondertussen ook meer te zien krijgen van hoe AI en maatschappij interageren, kan juist ook de theorie, en dan specifiek de filosofie, een waardevolle bijdrage leveren. Filosofische denkkaders kunnen ons begrip van AI-gerelateerde vraagstukken verrijken. Dat is ook het uitgangspunt van Mark Coeckelbergh in zijn boek The Political Philosophy of AI. Volgens Coeckelbergh biedt de politieke filosofie relevante aanknopingspunten om de discussie rond AI te voeren.
Grote techbedrijven creëren door het vergaren van persoonsgegevens een machtsrelatie ten opzichte van hun gebruikers
De politieke filosofie is een deelgebied van de filosofie dat in essentie draait om de vraag hoe mensen samenleven in een maatschappij. Die vraag kan zowel descriptief als normatief worden benaderd: descriptief om te begrijpen wat samenleven in een maatschappij voor mensen betekent, en normatief om te beargumenteren hoe mensen in een maatschappij zouden moeten samenleven. Een belangrijk gegeven dat in politiek-filosofische vragen meespeelt, is dat mensen in min of meerdere maten van elkaar verschillen. Mensen worden geboren onder verschillende sociaaleconomische en sociaal-culturele omstandigheden, en met verschillende lichamen. Het perspectief van de politieke filosofie is dus gericht op de pluralistische maatschappij. Dat dit perspectief relevant is voor discussies rond AI wordt nu duidelijk. Zowel de descriptieve als de normatieve dimensie spelen hierbij een rol en roepen vragen op over wat het betekent voor mensen om samen te leven in een maatschappij met AI, en hoe ze dat zouden moeten doen.
In zijn boek demonstreert Coeckelberg dit verband door verschillende klassieke thema’s van de politieke filosofie te onderscheiden en deze telkens te koppelen aan de implicaties van bepaalde types AI-systemen. Deze thema’s zijn onder andere vrijheid, rechtvaardigheid, democratie en macht. Tegelijkertijd zijn deze thema’s, zoals Coeckelberg ook opmerkt, sterk verweven. Zo is zowel het thema van vrijheid als het thema van rechtvaardigheid van toepassing op het zogenoemde predictive policing. Hierbij worden AI-systemen gebruikt door overheden of andere instanties om zogezegd een risico-inschatting te maken van welke burgers, werknemers of klanten zich niet aan de regels houden. Dit betekent enerzijds dat mensen constant onder supervisie staan, wat inbreuk maakt op zogeheten negatieve vrijheid, de vrijheid om te handelen zonder dat iemand anders zich daarmee bemoeit. Anderzijds betekent predictive policing dat het individu wordt beoordeeld op het gedrag van anderen, op basis van kenmerken die het individu met anderen deelt. Hierbij kan het al snel gebeuren dat een persoon op basis van sociaaleconomische kenmerken wordt beoordeeld, wat discriminerend is. Dit gaat in tegen normatieve ideeën over rechtvaardigheid, waarin iedereen als gelijke moet worden behandeld.
AI-systemen voor predictive policing maken gebruik van persoonlijke data, net als veel andere AI-toepassingen. Deze kunnen ook gebruikt worden voor gepersonaliseerde reclames en aanbevelingen door diensten, zoals energievoorziening, streamingsplatforms en sportapps. AI-systemen die gebruik maken van persoonlijke data kunnen geanalyseerd worden vanuit het thema van macht. In lijn met de ideeën van de Franse filosoof Michel Foucault beschreef Soshana Zuboff in 2020 al hoe grote techbedrijven zoals Facebook en Google door het vergaren van persoonsgegevens in feite een machtsrelatie scheppen ten opzichte van hun gebruikers. Volgens Foucault is het bezitten van kennis over mensen, en dus niet eens zozeer het handelen daarnaar, al voldoende om macht uit te oefenen. In deze machtsproblematiek speelt AI dus wel een rol als onderdeel van de infrastructuur waarmee persoonsgegevens worden verzameld en verwerkt, maar ligt het niet zozeer aan de oorsprong van de problematiek.
Hoe verhoudt die macht zich tot nationale democratieën?
Tegelijkertijd sluit deze rol van AI aan op nog een andere thematiek, namelijk die van democratie. Als het inderdaad zo is dat techbedrijven macht uitoefenen, waarbij AI gebruikt wordt om het handelen van gebruikers te beïnvloeden, hoe verhoudt die zich dan tot nationale democratische machten? Sommigen uiten zich bezorgd dat de macht van techbedrijven zo zou kunnen groeien en gecentraliseerd kunnen worden dat deze op gespannen voet komt te staan met bestaande machtsverhoudingen binnen de democratie. Zijn burgers wel nog vrije burgers in een maatschappij waarin Amerikaanse techbedrijven hun informatie verzamelen en hun gedrag observeren? Anderzijds kan worden vastgesteld dat deze macht zelf ondemocratisch is, gebruikers hebben immers geen inspraak. Moet deze macht beteugeld worden, en zo ja, hoe? AI is een belangrijk onderdeel in dit vraagstuk, maar ook hier speelt een bredere problematiek, die uiteindelijk gaat over de machtsbalans tussen overheden en private bedrijven. Het gaat hier immers niet om zomaar elk bedrijf dat AI ontwikkelt, maar over grootschalige multinationals.
Dit pleit ervoor AI-systemen altijd in context te beschouwen. Niet elk probleem waar AI mee in verband gebracht wordt, is in de oorsprong enkel en alleen een ‘AI-probleem’. Ongelijkheid is een structureel probleem, en doordat AI-systemen ongelijkheid kunnen reproduceren of zelfs kunnen versterken, worden we hier gewoonweg op een andere manier mee geconfronteerd. Wat dan wel geldt als een ‘echt’ AI-probleem, is overigens ook lastig om eenduidig te definiëren. Bovenstaande discussie gaat immers over verschillende soorten systemen en verschillende bezorgdheden die daarbij spelen. Hier kan het systeemtechnologisch karakter, zoals eerder besproken, van AI in worden herkend. AI-technologie is ingebed in diverse maatschappelijke sectoren, zoals gezondheidszorg, energievoorziening, defensie, digitale diensten, onderwijs en financiën, waarbij elke sector- specifieke afwegingen met zich meebrengt. De brede maatschappelijke blik van politieke filosofie komt hierbij van pas.
In die zin is een politiek-filosofische insteek complementair met de insteek van de ethische richtlijnen die eerder in dit artikel aan bod kwamen. Deze richtlijnen hanteren een perspectief dat vertrekt vanuit de AI-praktijk en daarmee verschilt van het politiek-filosofische perspectief, dat primair gericht is op de samenleving als geheel. De richtlijnen refereren aan het kader van de toegepaste ethiek, dat gaat over hoe mensen in een bepaalde (professionele) rol moeten handelen, of hoe een bepaalde (professionele) praktijk worden ingericht. In het geval van AI gaat dit over hoe AI-ontwikkelaars het gedrag van AI-systemen kunnen aanpassen om negatieve effecten te voorkomen. Een ontwikkelaar die een gezichtsherkenningssysteem ontwikkelt kan bijvoorbeeld nagaan of in de benodigde dataset mannen en vrouwen in gelijke verhouding gerepresenteerd zijn zodat het systeem beide sekses even goed herkent en op deze manier invulling geven aan het principe van rechtvaardigheid. Tegelijkertijd vindt dit plaats binnen het kader dat zo’n gezichtsherkenningsysteem wordt ontwikkeld. De vraag of we überhaupt willen dat gezichtsherkenning wordt gebruikt, en door welke instanties, behoort minder tot de toegepaste ethiek en past beter binnen het maatschappijbrede perspectief van de politieke filosofie.
De conceptuele inzichten van de politieke filosofie zijn niet alleen theoretisch waardevol, maar ook praktisch toepasbaar, vooral binnen het politieke debat over AI-wetgeving. De politiek-filosofische thema’s die eerder genoemd werden – vrijheid, gelijkheid en rechtvaardigheid – en hun wisselwerking met AI kunnen verdieping en gewicht geven aan de argumenten van politici en critici in de politieke praktijk. Uiteindelijk is dat de plek waar dit moment de grootste resultaten behaald kunnen worden om AI af te stemmen op de samenleving. Het is dan ook hoog tijd om de politieke filosofie een centrale rol te geven in het maatschappelijk debat over AI.
Mark Coeckelbergh, The political philosophy of AI: an introduction. (John Wiley & Sons, 2022).
Juliet van Rosendaal is doctoraatsonderzoeker aan het Hoger Intituut voor Wijsbegeerte aan KU Leuven. Ze doet onderzoek naar de expertise van AI-ontwikkelaars en democratisering van technologie.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported License