Deel dit artikel

wie denkt dat met artificiële intelligentie alles mogelijk wordt, zolang we maar genoeg data verzamelen, vergist zich. puur observationele data zeggen niets over het proces waarmee ze gegenereerd worden of over de oorzaken die daarachter schuilgaan. actie ondernemen zonder oorzakelijk model waarmee we de effecten van die actie kunnen inschatten is een bijzonder slecht idee. pas in de laatste decennia is ook de wiskunde zich met causaliteit gaan bezighouden, onder meer onder impuls van computerwetenschapper judea pearl.

Waarom The Book of Why belangrijk is

Joost Vennekens en Wannes Meert

Data, data, en nog meer data. Recente ontwikkelingen op het gebied van Artificiële Intelligentie (AI) geven de indruk dat zelfrijdende auto’s, medische expertsystemen en autonome robots enkel nog maar een kwestie zijn van genoeg data te verzamelen. Niet waar, zegt computerwetenschapper en Turing-Award-winnaar Judea Pearl. In zijn nieuwste boek, The Book of Why, bestrijdt hij deze datagebaseerde hoogmoed, die overigens niet nieuw is. Twee eeuwen geleden al leden Galton en Pearson, de stamvaders van de moderne statistiek, aan dezelfde illusie, aldus Pearl. Ook zij dachten dat ze de subjectiviteit van de domeinexpert konden bannen, en dat enkel pure, objectieve data alle wetenschappelijke vragen zouden kunnen beantwoorden. Meer nog, zij draaiden de zaken zelfs om: voor Galton en Pearson waren enkel vragen die op basis van data te beantwoorden waren nog wetenschappelijk te noemen.

Een aanpak die enkel en alleen op data gebaseerd is, heeft echter belangrijke beperkingen. Wat zou ons bijvoorbeeld tegenhouden om ijsjeszaken te sluiten om zo een inbrakengolf af te remmen? De data tonen immers een duidelijk patroon: wanneer er meer ijsjes verkocht worden, zijn er ook meer inbraken. Ondanks dit patroon is het voor ons toch meteen duidelijk dat het sluiten van ijsjeszaken nooit een goede manier kan zijn om inbraken tegen te gaan, net zoals duwen tegen de wijzer van een barometer geen goede manier is om de luchtdruk te doen stijgen. Maar hoe weten we dit? Waarom is het voor ieder van ons evident dat spelen met een barometer geen invloed zal hebben op de luchtdruk?

Zelfs dit eenvoudige voorbeeld bevat al een belangrijke les in bescheidenheid voor eender welke data-gebaseerde analyse: het feit dat de luchtdruk een invloed heeft op de barometer in plaats van andersom is immers iets dat niet kan worden afgeleid uit observationele data alleen. Om dit te kunnen besluiten, hebben we nood aan meer dan enkel data. We moeten ook kennis hebben over het proces dat deze data genereert, en meer bepaald over de oorzakelijke verbanden in dit proces. Het is pas wanneer we weten dat een grote verkoop van ijsjes geen oorzaak is van inbraken – maar dat beide wel veroorzaakt worden door warme dagen, die mensen liever buitenshuis doorbrengen, waardoor inbrekers vrij spel krijgen – dat we op een zinvolle manier kunnen nadenken over manieren om inbraken te voorkomen. Dit voorbeeld laat zich bovendien perfect veralgemenen. Gelijk wanneer we overwegen om een bepaalde actie te ondernemen, zoals het sluiten van ijsjeszaken of het verdraaien van de wijzer op een barometer, hebben we een oorzakelijk model nodig om de effecten daarvan te kunnen inschatten. Zonder zo’n model helpen alle data ter wereld ons niet verder.

Pas wanneer we weten dat ijsjesverkoop geen oorzaak is van inbraken kunnen we zinvol nadenken over manieren om inbraken te voorkomen

Oorzakelijke verbanden zijn dus cruciaal voor gelijk wie wil handelen in deze wereld: overheden, individuen, maar bijvoorbeeld ook zelfrijdende auto’s. Toch zijn oorzakelijke verbanden lange tijd stiefmoederlijk behandeld. Sinds Pearson waarschuwen statistici tegen het voetstoots aannemen van causale verbanden met behulp van het bekende adagium ‘correlatie impliceert geen causatie’. Een handboek statistiek zal met veel plezier en een grondige wiskundige onderbouwing uitleggen wat correlaties zijn, hoe je ze berekent en wanneer ze statistisch significant zijn. Maar wat met causatie? Tot aan het werk van Pearl waren er van dit concept in handboeken geen wiskundige definities te vinden, en dus ook geen manieren om oorzakelijke verbanden te berekenen of te analyseren. Daar waar probabiliteitscalculus grondige wiskundige fundamenten biedt om te spreken over statistische verbanden tussen variabelen, bestond er niet eens een wiskundige notatie om op te schrijven dat er tussen twee variabelen een causaal verband bestaat. Omwille van deze opmerkelijke lacune is het spreken over oorzaken en gevolgen altijd buiten het domein van de wiskunde moeten gebeuren. Men rekende met kansen en correlaties, en verwees het spreken over oorzaken en gevolgen naar een kleine voetnoot.

De belangrijkste boodschap is dan ook tweeledig. Ten eerste: causaliteit is belangrijk. Als we willen nadenken over acties – is het een goed idee om X of Y te doen? – dan kunnen we niet zonder een causaal model. Als we willen verklaren waarom een bepaalde actie een bepaald resultaat gehad heeft – waarom is deze Tesla tegen een lantaarnpaal gereden? – dan hebben we een causaal model nodig. Ten tweede: als we causaliteit willen bestuderen, moeten we ook effectief causaliteit bestuderen. Het heeft geen zin om te proberen causaliteit te onderzoeken door bijvoorbeeld naar correlaties te kijken. Statistische patronen uit een dataset, hoe ingewikkeld die ook mogen zijn, kunnen nooit een afdoend alternatief zijn voor causale informatie. Dus, zegt Pearl, hebben we nood aan een wiskundige taal om causale informatie (‘X veroorzaakt Y’) te kunnen voorstellen.

Statistische patronen uit een dataset, hoe ingewikkeld ook, kunnen nooit een afdoend alternatief zijn voor causale informatie

Het is in dit tweede punt, het ontwikkelen van een taal om te kunnen spreken over oorzakelijke verbanden, dat Pearl zijn grootste technische bijdrages geleverd heeft. In fysica gebruikt men de taal van algebraïsche vergelijkingen (bv. F = m*a) om te spreken over de verbanden tussen variabelen. Dergelijke vergelijkingen zijn symmetrisch: of je nu F = ma, m = F/a of a = F/m schrijft, maakt geen enkel verschil, want alle drie deze vergelijkingen beschrijven identiek hetzelfde verband tussen F, m en a. Dit betekent dat we met dergelijke vergelijkingen nooit causale verbanden kunnen uitdrukken, waarin er een cruciale asymmetrie zit tussen oorzaak en gevolg. Daarom introduceert Pearl een notatie die ons wél toelaat om gevolgen en oorzaken te onderscheiden. Hij gebruikt hiervoor een eenvoudige grafische notatie, die niettemin toelaat om causale verbanden formeel te beschrijven, met evenveel wiskundige precisie als algebraïsche vergelijkingen. Schrijven we bijvoorbeeld

Luchtdruk —–> Barometer      [Model 1]

dan drukken we uit dat de luchtdruk een oorzaak is van de stand van onze barometer. Schrijven we daarentegen

Barometer —–> Luchtdruk     [Model 2]

dan bedoelen we juist het omgekeerde. Het gaat hem hier enkel om de notatie. Niets verplicht ons bijvoorbeeld om alle causale verbanden effectief te kennen, net zoals we ook niet altijd alle parameters van een algebraïsche vergelijking kennen. Het is mogelijk dat ik (of een AI-systeem) niet weet in welke richting het causale verband loopt, waardoor ik gerust kan twijfelen tussen de twee bovenstaande modellen. Deze notatie lost dus niet onmiddellijk alle problemen op, maar ze laat ons wel toe om met wiskundige precisie op te schrijven wat we wél weten, wat we niet weten, en waarover we eventueel nog twijfelen. Dit is een grote stap voorwaarts, want als we dit met wiskundige precisie kunnen noteren – in plaats van het allemaal te moeten verwoorden in het Nederlands of het Engels – kunnen we wiskundige analysemethodes gaan ontwikkelen om bijvoorbeeld na te gaan welke implicaties onze kennis heeft, of hoe we het verschil kunnen zien tussen twee modellen waartussen we twijfelen.

Ook hier heeft Pearl een belangrijke stap gezet, meer bepaald door de introductie van zijn ‘do-calculus’. Deze laat toe om te rekenen op basis van deze causale modellen. Zo kunnen we wiskundig afleiden dat, als Model 1 correct is, het verdraaien van de wijzer op een barometer geen invloed zal hebben op de luchtdruk. De notatie van Pearls do-calculus drukt als volgt uit dat de kans op een bepaalde luchtdruk nadat we aan de barometer geprutst hebben niet verschilt van de a-priorikans op deze luchtdruk:

P(Luchtdruk | do(Barometer)) = P(Luchtdruk)

Het cruciale onderdeel van deze vergelijking is de uitdrukking ‘do(Barometer)’: deze ‘do’ (van het Engelse werkwoord to do) betekent dat we de stand van de barometer niet observeren, zoals we normaal gezien zouden doen, maar dat we een bewuste actie ondernemen door zelf die stand te veranderen. De bovenstaande vergelijking zegt dat het feit dat we de stand van de barometer zelf veranderd hebben ons geen enkele informatie over de luchtdruk verschaft. Zonder de do-operator van Pearl kunnen we enkel maar praten over wat er zou gebeuren als we zouden zien dat de barometerwijzer een bepaalde waarde aangeeft. Een dergelijke observatie van de wijzer geeft natuurlijk wél informatie over de luchtdruk:

P(Luchtdruk | Barometer) ≠ P(Luchtdruk)

In de enigszins absurde situatie dat Model 2 het correcte model zou zijn (m.a.w. wanneer onze barometer de luchtdruk zou beïnvloeden), zouden de vergelijkingen er heel anders uitzien, want dan zouden we hebben dat:

P(Luchtdruk | Barometer) = P(Luchtdruk | do(Barometer))

Op deze manier geeft de do-calculus ons een wiskundige manier om testbare gevolgen van onze hypotheses af te leiden, die toelaten om experimenten op te zetten om na te gaan welke van onze causale modellen correct zijn. In het geval van bovenstaand voorbeeld kunnen we de barometer verdraaien van 900 naar 1000, en dan kijken welke gelijkenis het grootst is: als het weer na het verdraaien van de barometer het meest lijkt op dagen waarop de barometer 900 aangeeft (P(Luchtdruk | do(Barometer)) ≈ P(Luchtdruk)), dan hechten we meer geloof aan Model 1; als daarentegen het weer na het verdraaien van de barometer meer lijkt op dagen waarop de barometer 1000 aangeeft (P(Luchtdruk | do(Barometer)) ≈ P(Luchtdruk | Barometer)), dan levert dat steun voor Model 2.

De do-calculus geeft ons een wiskundige manier om testbare gevolgen van onze hypotheses af te leiden

Om dit eenvoudige experiment uit te denken, hadden we Pearl wellicht niet nodig. De grote meerwaarde van zijn aanpak is echter dat hij ons wiskundig gereedschap aanreikt om dergelijke analyses op een gefundeerde manier uit te voeren. Vanuit wiskundig standpunt bekeken is het oplossen van bijvoorbeeld een stelsel van vijftig vergelijkingen in vijftig onbekenden niet moeilijker (of gemakkelijker) dan het oplossen van een stelsel van twee vergelijkingen in twee onbekenden. Op dezelfde manier kunnen we Pearls do-calculus toepassen om bijvoorbeeld het causale verband tussen inkomstenbelasting en sociale ongelijkheid in de Belgische economie te analyseren, en zal dat essentieel niet moeilijker zijn dan de oefening die we hierboven voor de barometer gedaan hebben.

Als een gefundeerde manier om ‘te rekenen met’ oorzakelijke verbanden en om na te denken over het effect van maatregelen heeft de theorie van Pearl natuurlijk een enorme reikwijdte. Zowel voor exacte wetenschappen zoals fysica of biologie als in sociale wetenschappen zoals economie of pedagogie is zijn werk dan ook van belang.

Belangrijk is de impact op het ‘gerandomiseerd onderzoek met controlegroep’ dat onder andere in de medische wereld vaak gebruikt wordt. Dit is één van de zeldzame causale technieken die tot heden aanvaard worden. De do-calculus laat toe om deze techniek op een wiskundige manier uit te drukken en om aan te tonen waarom ze een succesvolle aanpak is om causaliteit te onderzoeken. Typisch worden hierbij een aantal variabelen bewust ‘gecontroleerd’ omdat ze een ongewenst effect kunnen hebben op de uitkomst van een onderzoek. Bijvoorbeeld: als je geen rekening houdt met de leeftijd van kinderen, dan kan je denken een causale link te herkennen tussen schoenmaat en leesvaardigheid – een kind met een grotere schoenmaat kan beter lezen. Door te controleren voor leeftijd kan je ontdekken dat dit ogenschijnlijk causale verband er eigenlijk geen is.

In bepaalde gevallen kan het beheersen van een variabele net een causale link insinueren die er niet is

Misschien nog belangrijker dan uitleggen waarom het controleren van variabelen effectief werkt, is dat de do-calculus ook toelaat om te beslissen wanneer zulke experimenten niet de correcte resultaten opleveren. In bepaalde gevallen kan het beheersen van een variabele net een causale link insinueren die er niet is. Dit is het ‘achterdeurprincipe’, waarmee niet-causale informatie toch causaal kan lijken door via een achterdeur binnen te sluipen in de analyse. Pearl wijdt een volledig hoofdstuk aan hoe dit principe gebruikt werd om de discussie rond het verband tussen roken en longkanker te verwarren. Het feit dat statistiek geen formeel concept van causaliteit kende, zorgde hier voor een grijze zone waarin misleidende discussies mogelijk waren. Om een voorbeeld te geven: data tonen aan dat de overlevingskans van baby’s met een te laag geboortegewicht groter is als de moeder rookt. De verklaring voor dit fenomeen ligt in het feit dat er verschillende oorzaken kunnen zijn voor een laag geboortegewicht: een rokende moeder is er daar één van, maar daarnaast zijn er ook nog een aantal ernstige(re) aandoeningen. Als we een baby met laag geboortegewicht beschouwen en we ontdekken dat diens moeder rookt, dan daalt hierdoor de kans dat deze baby ook nog eens één van die ernstige aandoeningen heeft, en is de overlevingskans dus groter dan bij een baby wiens moeder niet rookt en wiens lage geboortegewicht dus waarschijnlijk een gevolg is van een ernstigere aandoening. De do-calculus helpt om dit soort fenomenen uit te klaren, doordat hij toelaat om causale kennis of verwachtingen expliciet te maken zodat ze vervolgens gevalideerd kunnen worden op de medische data.

Pearls eigen achtergrond ligt echter niet in de medische wetenschap, maar bij computerwetenschappen en dan meer bepaald Artificiële Intelligentie. Zijn werk vertrekt met andere woorden van de vraag: hoe kunnen we een computersysteem bouwen dat de wereld kan begrijpen en hierin op een intelligente manier kan handelen? In deze vraagstelling zien we meteen de link naar causaliteit: het begrijpen van en het handelen in de wereld zijn voor Pearl bij uitstek twee taken waarvoor causale kennis vereist is.

Nochtans is dit inzicht ook bij Pearl pas laat gekomen. In het begin van zijn carrière werd hij vooral bekend door zijn werk rond bayesiaanse netwerken, een zeer invloedrijke machinelearningaanpak. Hiermee probeerde hij een artificiële intelligentie te ontwikkelen die zelf zou leren om de wereld te begrijpen, door het ontdekken van statistische patronen in data. Om deze patronen voor te stellen ontwikkelde Pearl zijn bayesiaanse werken: eenvoudige diagramma’s waarin statistische verbanden tussen variabelen worden weergegeven met behulp van pijlen. Pearl ontdekte dat dezelfde statistische patronen door verschillende netwerken konden worden voorgesteld en dat bovendien sommige van deze netwerken erg nuttig waren voor zo’n AI, maar andere veel minder. Wat was dan het verschil tussen het nuttige en het minder nuttige netwerk? Aangezien beide netwerken identiek dezelfde statistische patronen voorstelden, kon het verschil nooit terug te vinden zijn in de data. Dit deed Pearl beseffen dat je voor intelligent gedrag méér nodig had dan alleen maar data. En het ontbrekende stuk van de puzzel was natuurlijk causaliteit: het verschil tussen het nuttige en minder nuttige netwerk was dat, in het nuttige netwerk, de pijlen in dezelfde richting gingen als de oorzakelijke verbanden in de echte wereld, terwijl ze in het minder nuttige netwerk in de tegenovergestelde richting gingen.

De kracht van deep learning zit in het vermogen om complexe statistische patronen te distilleren uit grote hoeveelheden data

Dit inzicht vormde een belangrijk keerpunt in de loopbaan van Pearl, want het deed hem beseffen dat elke machine-learningaanpak die enkel maar naar data kijkt gedoemd is om te mislukken. Ook voor de huidige ontwikkeling van AI heeft dit belangrijke consequenties. De laatste jaren hebben zogenaamde deeplearningtechnieken een sterke opgang gemaakt. Ze zijn momenteel veruit de meest succesvolle AI-techniek voor het interpreteren van video, audio of natuurlijke taal. Of het nu gaat om een zelfrijdende auto, een chatbot of go-spelende software, deep learning speelt een belangrijke rol bij de meeste recente voorbeelden van AI-systemen. Typisch daarbij is de puur datagebaseerde aanpak. De kracht van deep learning zit in het vermogen om complexe statistische patronen te distilleren uit grote hoeveelheden data. Maar tezelfdertijd schuilen daarin ook de voornaamste beperkingen. Omdat ze puur met data werken, kunnen deeplearningmethodes hun conclusies niet verklaren. Een go spelende AI die met deep learning gebouwd is, kan goede zetten vinden, maar zal niet in staat zijn om uit te leggen waarom een bepaalde zet juist zo goed is. Als we bijvoorbeeld dezelfde technieken willen gebruiken om een systeem voor medisch advies te bouwen, kan dit een serieuze handicap vormen: een systeem dat aan een arts kan uitleggen waarom het een bepaalde diagnose stelt of behandeling aanbeveelt, zal immers veel sneller diens vertrouwen genieten.

Een systeem dat patronen oppikt uit data maar deze patronen niet kan uitleggen is bovendien ook inherent een onbetrouwbaar systeem. Er zijn immers voorbeelden te over van AI-systemen die onbedoelde patronen oppikken uit datasets die onzorgvuldig waren samengesteld. Een klassiek voorbeeld is een AI-systeem dat ogenschijnlijk perfect geleerd had om wolven te onderscheiden van huskyhonden – tot bleek dat in de data waaruit dit systeem het onderscheid geleerd had alle foto’s van wolven genomen waren in een besneeuwd decor terwijl de foto’s van honden veelal een achtergrond van groen gras hadden. Terwijl iedereen dacht dat het systeem geleerd had om wolven te onderscheiden van honden, had het eigenlijk gewoon geleerd om sneeuwwitte achtergronden te detecteren. Het spreekt voor zich dat een beetje causale kennis (sneeuw transformeert geen honden in wolven) deze flater had kunnen voorkomen.

Dergelijke voorbeelden zijn legio: zo is het al meer dan eens gebeurd dat een bedrijf een deeplearningsysteem ontwikkelt om gezichten te herkennen, om nadien te ontdekken dat enkel blanke gezichten gedetecteerd worden. Ook dit is te wijten aan een combinatie van een onzorgvuldig samengestelde dataset (waarin te weinig gezichten met een niet-blanke huidskleur aanwezig zijn) én aan het gebruik van deeplearningtechnieken die hun conclusies niet kunnen verklaren, waardoor onbedoelde vooroordelen heel moeilijk op te sporen zijn.

In de praktijk blijkt het erg moeilijk om onbedoelde statistische patronen volledig te vermijden

Minder onschuldige voorbeelden van dit fenomeen zijn ongetwijfeld te vinden in de AI-systemen die men in de VS tegenwoordig al gebruikt om te beslissen welke verdachten op borgtocht kunnen vrijkomen. Dergelijke systemen worden getraind op basis van gegevens over rechtszaken uit het verleden. In deze data zijn onvermijdelijk allerhande vooroordelen verborgen. Een politiekorps dat mensen met een bepaalde huidskleur, uit een bepaalde buurt of met een bepaald automerk meer controleert dan anderen kan ervoor zorgen dat deze personen bovengemiddeld aanwezig zijn in de dataset, ook als zij in wezen niet meer geneigd zijn tot misdaad dan anderen. Naar alle waarschijnlijkheid zal een deeplearningsysteem dat met dergelijke data getraind wordt deze patronen oppikken en hierop zijn oordeel baseren.

Het blijkt in de praktijk erg moeilijk om dit soort onbedoelde statistische patronen volledig te vermijden. Een op het eerste zicht absurd voorbeeld hiervan vinden we bij een groot bedrijf dat een AI-systeem ontwikkelde om automatisch veelbelovende cv’s te selecteren uit alle sollicitaties die binnenkwamen op de HR-afdeling. In dit bedrijf – en dus ook in de data waarop het AI-systeem zich baseerde – waren vrouwen ondervertegenwoordigd in leidinggevende functies. De AI had hieruit het statistische patroon geleerd dat het voorkomen van de term ‘vrouwenvolleybal’ bij de hobby’s in een cv een indicator was dat iemand niet geschikt was voor een leidinggevende functie. Op basis van dit patroon werden cv’s die vrouwenvolleybal vermeldden dus automatisch lager gerangschikt. Het spreekt voor zich dat enig elementair inzicht in oorzakelijke verbanden dit ongewenst gedrag had kunnen vermijden.

In recent AI-onderzoek is zogenaamde explainable AI, AI-systemen die hun conclusies kunnen verklaren, een belangrijk onderwerp geworden. Vooral om AI’s te bouwen die in staat zijn om vlot samen te werken met mensen lijkt dit een belangrijke volgende stap. Eén van de risico’s van de toenemende interesse in AI-systemen is dat we dreigen terecht te komen in een samenleving waar allerhande beslissingen (krijg ik deze lening? Mag ik op dit vliegtuig? Is deze betaling met mijn kredietkaart toegestaan?) genomen worden door een ‘black box’-AI, zonder dat er nog iemand deze beslissingen begrijpt of weet waarop ze gebaseerd zijn. Om dit te vermijden bevat de recente GDPR-regelgeving van de EU enkele interessante stipulaties. Zo vereist ze onder meer dat elke beslissing die door een AI-systeem genomen wordt te verklaren moet zijn: een benadeelde partij (bv. de klant die zijn lening niet heeft gekregen) heeft het recht op een begrijpelijke uitleg over waarom de beslissing zo genomen werd. Enkel ‘computer says no’ volstaat niet meer!

Een slim systeem moet niet enkel patronen kunnen herkennen, maar ook kunnen redeneren over alternatieve hypothesen

In The Book of Why toont Pearl aan dat een slim systeem niet enkel patronen moet kunnen herkennen, maar ook moet kunnen redeneren over alternatieve hypothesen. Wat had een klant anders kunnen doen om de lening wel te krijgen? Als je niet had gerookt, had je dan geen longkanker gekregen? Het beantwoorden van degelijke hypothetische vragen vormt het hoogste niveau van Pearls ladder van causaliteit: het is voor hem de meest geavanceerde vorm van causaal redeneren, die cruciaal is om de wereld te leren begrijpen. Op het laagste niveau van Pearls ladder leren we correlaties herkennen, zodat we bijvoorbeeld de kleur van grond waarin graan goed groeit kunnen onderscheiden van de kleur van grond waarin de oogst typisch lager is. Eén niveau hoger leren we na te denken over het effect van onze acties, zodat we bijvoorbeeld een plan kunnen maken om de opbrengst van een bepaald stuk grond te vergroten door het te bemesten. Het hoogste niveau is het niveau waarop we kunnen leren uit onze fouten: als we ondanks overvloedige bemesting merken dat de oogst toch kleiner is dan we dachten, kunnen we nadenken over wat we zelf anders hadden kunnen doen, en over de vraag of andere causale modellen misschien onze observaties beter zouden kunnen verklaren.

Pearls do-calculus biedt een gefundeerde manier om de denkpatronen te bestuderen die ons toelaten om succesvol te handelen en de wereld te begrijpen. Zijn formele aanpak helpt ons niet alleen om ons eigen denken beter te begrijpen en fouten te vermijden, maar laat ook toe om algoritmes te ontwikkelen die onze redeneringen kunnen nabootsen. Dankzij de do-calculus kunnen we AI-systemen ontwikkelen die zich niet langer enkel baseren op correlaties, maar die ook causaliteit mee in rekening brengen, om zo de typische problemen van onder andere deep learning te vermijden. Hierrond werken verschillende van Pearls opvolgers, waaronder Elias Bareinboim, een voormalige student van Pearl. Bareinboim focust zich op het praktisch toepassen van de do-calculus om een causale datawetenschap tot stand te brengen, die kan leiden tot een ‘geautomatiseerde wetenschapper’. Zo kunnen nu ook AI-systemen beginnen met het beklimmen van Pearls causale ladder.

Judea Pearl en Dana Mackenzie, The Book of Why: The New Science of Cause and Effect. (Londen: Penguin Books, 2019).

Joost Vennekens is hoofddocent in het Departement Computerwetenschappen en de Faculteit Industriële Ingenieurswetenschappen van de KU Leuven (Campus De Nayer, Sint-Katelijne-Waver). Zijn onderzoek gaat over industriële toepassingen van artificiële intelligentie, met een focus op kennisgebaseerde methodes.

Wannes Meert is onderzoeksmanager in het Departement Computerwetenschappen van de Faculteit Ingenieurswetenschappen van de KU Leuven. Hij focust zich op de link tussen uitdagingen in industrie en onderzoek naar artificiële intelligentie, machine learning en anomaliedetectie.

Deel dit artikel
Gerelateerde artikelen