Deel dit artikel

al sinds midden twintigste eeuw houden onderzoekers uit tal van domeinen zich bezig met artificiële intelligentie. Dat is trouwens geen kwestie van het emuleren van de algemene intelligentie van de mens. ai-onderzoekers proberen systemen te ontwikkelen die heel specifieke taken net zo goed kunnen uitvoeren als de mens of zelfs beter. aanvankelijk was dat helemaal niet vanzelfsprekend, onder meer door de rekencapaciteit van computers in de vroege jaren, en werden er beloftes gemaakt die niet altijd waargemaakt konden worden. toch waren er de afgelopen decennia ook een heel aantal spectaculaire doorbraken, en de verrassingen zullen blijven komen.

Er komen geen winters meer. Over de definitieve doorbraak van AI

Danny De Schreye

Artificiële Intelligentie (verkort AI) was in het voorbije decennium frequent en prominent aanwezig in de media. Voor velen schept dit de indruk dat het domein en de technologie heel nieuw zijn. Die perceptie is fout: de eerste internationale conferentie over AI vond al plaats in 1956. Ze werd bijgewoond door een aantal prominente onderzoekers uit de vroege computerwetenschappen, informatietheorie en wiskunde, en zelfs uit de psychologie. Onder hen bevonden zich pioniers zoals John McCarthy (uitvinder van Lisp, de eerste programmeertaal van hoog niveau), Claude Shannon (uitvinder van de informatietheorie), Marvin Minsky, Herbert Simon en Allen Newell (latere winnaars van de Turing Award).

De doelstellingen van die eerste conferentie over AI waren erg ambitieus: het opzetten van een onderzoekagenda voor het ontwerp en de ontwikkeling van computersystemen die taken kunnen vervullen die tot dusver alleen door mensen konden worden uitgevoerd. Het betreft taken zoals nieuwe concepten automatisch aanleren, natuurlijke taal begrijpen, vertalen en genereren, creativiteit tonen, plannen maken voor complexe taken (onder andere voor moeilijkere spellen, zoals schaken), het begrijpen van en het kunnen handelen op basis van visuele perceptie. Vrijwel al deze taken staan momenteel nog steeds centraal in AI.

De naam ‘Artificiële Intelligentie’ is overigens misleidend. Het suggereert dat het domein een ‘intelligentie’ nastreeft, vergelijkbaar met die van de mens. Dat is niet zo. Er bestaat een specifiekere naam voor de ontwikkeling van systemen met een intelligentie vergelijkbaar met die van de mens: Artificiële Algemene Intelligentie. Dit domein staat in zijn kinderschoenen. Er werd hierover nog heel weinig onderzoek uitgevoerd en er is bijzonder weinig bereikt. AI is veel beperkter in scope. Daar willen onderzoekers inzoomen op een welbepaalde taak die door mensen goed uitgevoerd wordt en trachten ze vervolgens systemen te ontwikkelen die die taak even goed uitvoeren als de mens, of zelfs beter. AI-onderzoekers hebben vaak een heel prozaïsche visie op hun taak: ze wensen functies te benaderen of na te bootsen. Denk aan het schaakspel. Veronderstel een functie die aan elk gegeven schaakbord een zet verbindt die typisch door een grootmeester in dat bord verkozen zou worden. AI ontwikkelt dan een systeem dat deze functie zo goed mogelijk nabootst of zelfs verbetert. Een ander voorbeeld is het vertalen van Engels naar Russisch. Een vertaling beeldt elke Engelse zin af op een Russische zin die dezelfde betekenis heeft. AI-onderzoekers bedenken een systeem dat deze functie zo goed mogelijk kan benaderen.

Vroege AI-onderzoekers hebben de complexiteit van de problemen zwaar onderschat

Vordering in AI verliep bijzonder traag. De doelstellingen van de pioniers waren echt ambitieus en vroege AI-onderzoekers hebben de complexiteit van de problemen zwaar onderschat. Zeker, het was relatief gemakkelijk om systemen te bouwen die een klein aspect van de te benaderen functie correct nabootsten en toy-systemen die een soort van proof of concept realiseerden waren binnen bereik. Zelfs rond 1950 waren er bijvoorbeeld al kleine algoritmes die het schaakspel correct konden spelen. Maar een menselijk niveau halen is immens veel complexer. Daarenboven was de rekencapaciteit van computers in de vroege jaren van AI volstrekt onvoldoende om een hoger niveau te bereiken, iets waar pas in de laatste decennia verandering in gekomen is.

Daarom werd tussen 1956 en 2000 de geloofwaardigheid van het domein geregeld in twijfel getrokken. Die periodes staan bekend als de AI-winters. De belangrijkste waren in de jaren ’70 en ’90. AI-onderzoekers hadden beloftes gemaakt die ze niet – binnen een redelijke termijn – konden waarmaken, waardoor de aandacht en financiering voor hun werk verdwenen. Toch waren er in bepaalde periodes daartussen heel significante realisaties, zoals bijvoorbeeld de ‘expertsystemen’ in de jaren ’80. Dit zijn systemen die het gedrag van een menselijke expert in een bepaalde problematiek nabootsen. Er waren onder andere heel succesvolle modellen voor de configuratie van computersystemen en voor de diagnose van problemen met chemische installaties.

Het AI-domein heeft zich voornamelijk in stand kunnen houden door een aantal spectaculaire doorbraken die bijzonder veel aandacht kregen in de media. De eerste, heel belangrijke, was de overwinning in 1997 van het IBM-schaakprogramma Deep Blue in een tornooi tegen toenmalig wereldkampioen schaken Garri Kasparov. Eigenlijk betreft het hier maar een eenvoudig spel. Je kan de regels van het schaakspel neerschrijven op een paar A4-tjes en dat is alle kennis die je nodig hebt om correct te kunnen schaken. Voeg daar een boel zoektechnieken aan toe, die zoveel mogelijk toekomstige bordposities kunnen berekenen, onderzoeken en vergelijken, maak die berekeningen supersnel, zodat je heel ver vooruit kan kijken in het spel, en je krijgt uiteindelijk een systeem dat de wereldkampioen verslaat. Het opmerkelijke is dat je nauwelijks kennis van de wereld nodig hebt om deze taak succesvol uit te voeren, waardoor het beschouwd wordt als een relatief eenvoudig probleem. Anderzijds is het natuurlijk zo dat een wereldkampioen schaken een hoog IQ heeft en door vele jaren ervaring extra expertise heeft opgebouwd. Winnen tegen zo’n tegenstander is op zich wel een opmerkelijke realisatie. Vandaag hebben de beste schaaksystemen een schaakrating van 3 500, terwijl de menselijke topspelers een rating hebben van ongeveer 2 700. Geen enkele mens heeft nog een kans om te winnen tegen een goed schaaksysteem.

Je hebt nauwelijks kennis van de wereld nodig om een schaakkampioen te verslaan, maar wel om Jeopardy te winnen

Een volgende opmerkelijke realisatie vond plaats in de context van het spelprogramma Jeopardy, al decennialang een heel populair televisieformat in de VS (en bij ons ooit te zien onder de naam Waagstuk). Menselijke spelers krijgen een vaak cryptische beschrijving van een concept en moeten om het eerst het concept raden. Het was opnieuw IBM dat een programma ontwikkelde, Watson genaamd, dat bedoeld was om dit spel op het niveau van een mens te kunnen spelen. In 2011 speelde het computerprogramma tegen de twee allerbeste menselijke spelers ooit en won het. Het opmerkelijke aan deze overwinning was dat dit spel wél enorm veel kennis over de wereld vereist, en daarnaast ook een bijzondere beheersing van natuurlijke taal. Deze beide aspecten zijn in het verleden beschouwd als parameters die voor een AI-systeem zeer moeilijk te beheersen zijn. Daarom was deze overwinning, voor de insiders, een veel grotere verrassing dan die rond het schaken.

Een derde spectaculaire doorbraak voor AI was de overwinning in 2016 van het AlphaGo-systeem van Google op de wereldkampioen van het Chinese bordspel go, Lee Sedol. De complexiteit van dit spel ligt veel hoger dan die van schaken. Waar een schaakpartij gemiddeld uit een tachtigtal zetten bestaat en een speler bij elke zet gemiddeld kan kiezen tussen een vijftiental correcte zetten, zijn die waarden in go respectievelijk 300 en 200. Dat betekent dat de volledige zoekboom met alle mogelijke borden en zetten voor het schaken een grootteorde van 15 tot de macht 80 heeft, en voor go 200 tot de macht 300. Het gevolg hiervan is dat de zoekmethodes die voor bordspelen werden ontwikkeld, onder andere voor schaken, totaal ongeschikt zijn voor go. De complexiteit is zo verschillend dat de technieken helemaal niet schalen voor go. Elke basiscursus in AI maakt dit al twintig jaar duidelijk aan de studenten.

De ontwikkelaars van AlphaGo hebben dan ook gekozen voor een totaal nieuwe aanpak, gebaseerd op Artificiële Neurale Netwerken (verkort ANN). Dit is een heel oude techniek. Reeds van bij de opstart van het onderzoek in AI was er werk waarbij ruwe imitaties van het menselijke brein model stonden voor de aanpak. Een ANN is een netwerk waarin de knopen heel eenvoudige rekencellen zijn; die knopen zijn op een bepaalde manier geconnecteerd en kunnen via die connecties getallen doorsturen. Aan die connecties zijn gewichten verbonden die bepalend zijn voor de manier waarop de invoer in een cel wordt omgezet naar de uitvoer. De bedoeling is om het netwerk een functie, zeg f(x), aan te leren. Dat gebeurt op basis van een (groot) aantal voorbeelden van paren (a, f(a)) en met behulp van een leeralgoritme dat gaandeweg de gewichten in het netwerk aanpast, teneinde de voorbeelden uiteindelijk zo goed mogelijk te benaderen. Eigenlijk waren ANNs rond 2010 ‘verouderde’ technologie. Ze werden vóór 2016 nog heel weinig gebruikt. De ontwikkelaars van AlphaGo hebben ze echter nieuw leven ingeblazen door de netwerken veel groter te maken, meer structuur te geven, uitdrukkelijk veel meer voorbeelden te gebruiken en de leertechnieken daarvoor te optimaliseren. Deze vernieuwde versie van ANNs kreeg de naam Deep Learning. Net als bij Watson was het succes van AlphaGo een grote verrassing. Al decennia werd go beschouwd als een probleem waarin geen vordering gemaakt werd. Dat een oude techniek hier nu toch succesvol bleek, was onverwacht.

Het is verleidelijk om te denken dat AI zich enkel bezighoudt met spelletjes, vermits de grote doorbraken daar plaatsvonden

Het is op dit punt verleidelijk om te denken dat AI zich alleen maar bezighoudt met spelletjes, vermits de grote doorbraken daar inderdaad mee verbonden zijn, maar de nieuwe technieken die ontwikkeld werden voor deze showcases werden later opnieuw ingezet voor meer praktisch bruikbare toepassingen. Watson werd bijvoorbeeld aangepast voor en toegepast in adviessystemen voor medische diagnosticering. AlphaGo en Deep Learning hebben een enorme concrete impact gehad. Na 2016 werd Deep Learning toegepast in vrijwel alle contexten waar automatisch leren een rol kan spelen. De belangrijkste daarbij zijn natuurlijke taal en spraak, computervisie en beeldherkenning. Die laatste twee domeinen hebben sinds de introductie van Deep Learning een ware grondverschuiving ondergaan. Vrijwel alle technieken die daar vóór 2016 werden gebruikt hebben ondertussen plaats geruimd voor Deep Learning. Het effect was indrukwekkend. Wie voor 2016 een product als Google Translate gebruikte, kon meestal wel een idee krijgen van de inhoud van de oorspronkelijke tekst, maar kon de vertaling helemaal niet gebruiken zonder zelf substantieel tussen te komen. Vandaag zijn de vertalingen van Google Translate veel beter, zij het enigszins afhankelijk van de gekozen taalcombinatie. In 2020 was er het eerste vertaalprogramma dat minder fouten maakte dan de gemiddelde menselijke professionele vertaler, namelijk voor de combinatie Chinees-Engels.

Daarnaast heeft AI zich natuurlijk ook ontwikkeld los van deze showcases. Het is trouwens een enorm breed en divers domein, erg multidisciplinair en momenteel toegepast in vrijwel elke sector. Ter illustratie van de diversiteit: een opleiding zoals de manama Master of Artificial Intelligence aan de KU Leuven telt meer dan 30 vakken, met exponenten rond automatisch leren, taal, spraak en visie en data mining, maar ook robotica, representatie- en redeneertechnieken, toepassingen in management, economie, sociologie en letteren. Data mining is daarbij een van de meest impactvolle deelgebieden van de laatste decennia. Het is de drijvende kracht achter superbedrijven als Google, Facebook en Amazon. De kracht van data mining komt uit het feit dat vrijwel elk bedrijf zeer grote hoeveelheden data bezit. In die data zit vaak informatie verscholen die van belangrijk strategisch nut kan zijn voor het bedrijf. Die informatie manueel uit de data halen is onmogelijk, vanwege de grootte van de datacollecties. Er is nood aan automatische technieken die patronen en eigenschappen kunnen extraheren. In data mining is daartoe een palet aan automatische leertechnieken ontwikkeld, waarvan Deep Learning ondertussen een van de belangrijkste is geworden.

AI is een enorm divers domein, multidisciplinair en toegepast in vrijwel elke sector

Voor iedereen die de media volgt, moet het duidelijk zijn dat AI niet alleen een hoeraverhaal is. Zoals vrijwel elke nieuwe technologie houdt ook AI een boel gevaren in. Zo zijn er de waarschuwingen van een aantal prominenten, zoals Stephen Hawking, Elon Musk en Bill Gates, dat AI een bedreiging vormt voor de mensheid. De context hiervan is het singulariteitsprobleem. De singulariteit is een tijdspunt waarop AI een intelligentie bereikt die gelijk is aan de intelligentie van de mens. Vanaf dat punt kan de AI zichzelf even goed verbeteren als de mens dat zou kunnen doen; op elk volgend tijdspunt zal de AI zich sneller kunnen verbeteren dan de mens. Het gevolg zou een exponentiële verbetering kunnen zijn, waarbij AI een superintelligentie wordt en een bedreiging voor de mens.

Voor AI-onderzoekers is het singulariteitsprobleem (nu nog) niet aan de orde: het uitgangspunt van dat probleem is immers het bestaan van Artificiële Algemene Intelligentie en, gegeven de huidige staat van het onderzoek, staan we daar nog onnoemelijk ver van af. Toch is het niet uitgesloten dat de singulariteit ooit bereikt wordt. Heel wat onderzoekers wereldwijd investeren nu al in de ontwikkeling van moraliteitssystemen, die ze hopelijk kunnen integreren en verankeren in toekomstige AI-systemen.

Er zijn ook nog heel wat andere bedreigingen: het verloren gaan van een aantal beroepen, het verliezen van privacy ten gevolge van data mining, het Big Brother-doembeeld zoals dat in sommige provincies in China nu reeds bestaat, het ontstaan van AI-monopolies (Google, Facebook, Amazon) die een onaanvaardbaar concurrentievoordeel hebben, autonome dodende wapens, het effect van immense computercentra op de opwarming van de wereld, enzovoort. Het is onmogelijk om hier op deze thema’s in te gaan, maar het is bemoedigend dat er heel wat aandacht voor is binnen de maatschappij, de politiek en de AI-onderzoekswereld zelf.

Artificiële Intelligentie is de kinderschoenen ontgroeid. Er komen geen nieuwe AI-winters meer. De technologie is nu verankerd in de economie. Grote bedrijven die niet meegaan in het gebruik van AI-technieken hebben een onoverbrugbare competitieve handicap. Zij die wel meegaan, zullen nooit in een positie komen waarin ze het gebruik moeten terugschroeven. Er is geen glazen bol waarin we de toekomstige ontwikkeling kunnen lezen. De grootste AI-realisaties uit het verleden waren heel onverwacht en dat zal heel waarschijnlijk in de toekomst zo blijven.

Wel opmerkelijk is een recent experiment in de context van het schaken. Bij een voordracht in Leuven in 2017 rapporteerde Garri Kasparov over een experiment waarbij een superschaaksysteem het opnam tegen een menselijke speler, bijgestaan door een verouderd schaaksysteem. Het team van de mens en het oude systeem won. Het is mogelijk een indicatie dat de toekomst waarschijnlijk schuilt in de samenwerking tussen de mens en AI, omdat de samenwerking van de beide vormen van ‘intelligentie’ elk van de afzonderlijke overtreft. De rol van de mens lijkt dus nog niet uitgespeeld.

Danny De Schreye is emeritus met opdracht aan het departement Computerwetenschappen van de KU Leuven. Zijn onderzoek situeert zich rond automatisch programmeren, terminatie-analyses, constraint processing en muziekanalyse en -generatie.

Deel dit artikel
Gerelateerde artikelen