Deel dit artikel

de wereld verandert snel, en digitalisering en robotisering zijn daarbij sterk in ontwikkeling. ook toepassingen in de zorgsector dienen zich aan. de kosten in de zorg lopen snel op en het personeelstekort eveneens. de vraag is nu: welke technologische en maatschappelijke ontwikkelingen bepalen onze toekomst? op welke manier gaan robots een rol spelen in onze gezondheidszorg?

Een robot als kameraad of collega?

Maarten Steinbuch

Het woord ‘robot’ wordt op allerlei manieren gebruikt. Zelfs een computerprogramma wordt weleens zo aangeduid. Natuurlijk zijn de ontwikkelingen op het gebied van computerinformatisering en eHealth voor zorgprofessionals en cliënten enorm belangrijk, maar het gaat niet om robotica. Een robot in de strikte definitie is een tastbaar apparaat dat kan bewegen. Een robot, en zeker een zorgrobot, kan echt dingen doen verplaatsen of iets halen. Als je je daartoe beperkt, kun je een onderscheid maken tussen twee soorten in de zorgsector. Allereerst is er de servicerobot, die in de thuiszorg of in het ziekenhuis mensen kan helpen. Deze robots kunnen zichzelf voortbewegen, met camera’s om zich heen kijken en proberen te snappen wat die camera’s zien. De tweede klasse omvat de robots die in de operatiekamer gebruikt worden. Zo zijn er robots die feitelijk worden bestuurd door een chirurg; de beweging van de chirurg wordt dan door de robot verbeterd. Formeel gezien zouden deze robots zonder de chirurg moeten kunnen werken om ze daadwerkelijk robot te noemen (men spreekt dan over een ‘autonome robot’), maar de meeste exemplaren die we nu zien in het ziekenhuis bestaan uit een master en een slave. Met betrekking tot het gebruik van al deze robots in de zorgsector stellen er zich minstens drie vragen: hoe snel gaat die ontwikkeling, hoe moeilijk is de implementatie ervan in de praktijk, en waarom is dat lastig?

Ten eerste zijn er dus de servicerobots. Die bestaan al lang, maar staan toch nog maar aan het begin van hun ontwikkeling. De stofzuigrobot kennen we bijvoorbeeld al jaren. Nu zie je ook steeds meer robots komen die dienen ter informatievoorziening, zoals de Pepper-robot. Die staat bijvoorbeeld in de hal van een ziekenhuis en de patiënt kan er vragen aan stellen. Hij (of zij, of het?) kijkt je heel erg lief aan met twee grote ogen, maar verder is de robot erg beperkt; hij kan nog geen kopje thee voor je halen. Een variant van die zorgrobots zijn de robots die worden gebruikt voor mensen met dementie, zoals de Paro-zeehond. Deze robots reageren en kunnen geliefkoosd worden. Companion robots heten ze ook wel; wij zouden ze knuffelrobots kunnen noemen. De ontwikkeling daarvan gaat snel en ze reageren steeds vaker ook heel persoonlijk. Er kunnen leeralgoritmen in zitten die weten wanneer je welke reactie leuk vindt. De experimenten met ouderen laten zien dat dit kan helpen tegen eenzaamheid en kan leiden tot een heractivering van het bewustzijn en het bewegen van die doelgroep. Bovendien hoeven knuffelrobots nooit naar de dierenarts, hebben ze geen eten nodig (behalve nu en dan een vers opgeladen batterij), en moeten ze zelfs nooit uitgelaten worden. Bij de knuffelrobots zijn echter wel wat ethische vragen te stellen: mogen we de patiënten er afhankelijk van maken? Wat is de empathie die we laten ontstaan tussen mens en robot? Moeten we dat begrenzen? Hier hebben we voorlopig meer vragen dan antwoorden.

De servicerobots die nodig zijn om ervoor te zorgen dat mensen langer thuis kunnen blijven wonen, moeten wél echt iets kunnen, zoals een kopje thee halen of zelfs zetten. Zo’n robot krijgt een opdracht en zoekt vervolgens zelf binnen de huiskamer zijn weg. Dat soort robots is sterk in ontwikkeling, maar we staan nog aan het begin. Er zijn dan ook heel wat uitdagingen: ten eerste moet de robot verder verfijnd worden zodat diens begrip van de omgeving toeneemt, ten tweede is het vooralsnog een dure aangelegenheid om de robots te maken, en ten derde is het niet zo duidelijk hoe we als mens en/of als zorgprofessional met hen moeten omgaan.

Als servicerobots ervoor moeten zorgen dat mensen langer thuis kunnen blijven wonen, moeten ze wel echt iets kunnen, zoals een kopje thee halen of zetten

Het begrijpen van de omgeving door een robot is best lastig, zeker als die omgeving vaak verandert. Zo ziet een camera een stel pixels, en is het pas de intelligentie die duidelijk maakt dat er – bijvoorbeeld – objecten staan in een kamer. Maar hoe weet een robot dat een tafel niet gaat bewegen en een mens wel? Dat is belangrijk als de robot een pad moet kiezen om zich een weg te banen. We moeten hem dus heel erg veel leren op een meer generiek niveau, zodat niet alle uitvoeringsvormen van tafels in zijn geheugen hoeven te zitten, om maar één voorbeeld te geven. Wat dat betreft kunnen we heel veel leren van het spel met de voetbalrobots dat we zelf de voorbije jaren ontwikkeld hebben: de algoritmes die we daar gebruiken, kunnen we namelijk ook toepassen op de servicerobots. Een paar voorbeelden om dit te verhelderen.

Elke voetbalrobot kijkt met een camera via een spiegel 360 graden rondom zich. Het beeld is echter maar een paar meter, volstrekt onvoldoende om het hele veld te overzien. Wat de robot wel kan doen is via wifi zijn kennis real-time delen met zijn collega-spelers. Samen (ze zijn met zijn vijven) zien ze wel het hele veld, tenzij ze op een kluitje staan natuurlijk, maar dat is meestal niet erg slim. Met de combinatie van die vijf beelden maken ze samen een nieuw totaalbeeld van het veld, inclusief de locatie van de bal, de tegenspelers, en de goals. Dergelijke samenwerkende robotsystemen zie je steeds meer komen in het onderzoek. Dit opkomende veld heet swarm robotics, en is bijvoorbeeld ook belangrijk voor drones die agrarisch gebied inspecteren of voor ‘connected mobility’ waarbij auto’s informatie uitwisselen met elkaar tijdens het rijden. Ook servicerobots die in een verzorgingstehuis werken kunnen hierdoor op termijn beter samenwerken.

Een tweede voorbeeld is het leren tijdens het voetbalspel. Wij als menselijke voetbalspelers hebben het erg snel in de gaten wanneer een tegenspeler op dezelfde manier bijvoorbeeld een uitbal neemt, of we herkennen aan de kleinste lichaamstaal wat de bedoeling is van de speler, een pass of een doelschot bijvoorbeeld. Hoe leer je dat aan een robot? Het onderzoek gaat dan over het identificeren van alle relevante en bruikbare informatie. Bijvoorbeeld: welke robot van de tegenpartij toont welk gedrag bij specifieke acties, hoe gaan zijn medespelers dan staan, wat doet de robotkeeper, en is dat elke keer hetzelfde? Bij het onderzoek ga je dan een aantal situaties simuleren en je kijkt of dat middels neurale netwerken geleerd kan worden. Met andere woorden: je onderzoekt of er in de gegevens een patroon zit. Omdat computersimulaties zo snel gedaan kunnen worden, en je bovendien de gehele setting zelf instelt, kun je heel veel data genereren en benutten voor het leerproces. Zo hebben onze robots nu een programmaatje dat tijdens een wedstrijd leert wat de kans is dat een tegenspeler op het doel gaat schieten of passen naar een medespeler. Recent heeft een afstudeerstudent een algoritme gemaakt waardoor de voetbalrobots supernauwkeurig kunnen schieten: een tennisbal op je hoofd wordt er feilloos afgeschoten met een normale voetbal, zonder dat je hoofd geraakt wordt! Ook dit kan met lerende algoritmen. Als je nadenkt over de toepassingen van dit soort kennis en kunde bij servicerobots in de zorg, dan wordt de uitdaging nog complexer: daar willen we graag onze robots laten leren van menselijke uitdrukkingen, lichaamstaal en spraak. Dat is nodig om de zorgrobots op een natuurlijke en menselijke manier ons leven te doen verrijken.

Naast de bovengenoemde technische uitdagingen is er het belangrijke aspect van de kostprijs. De rekenkracht van computerchips stijgt exponentieel: volgens de befaamde wet van Moore komt dat neer op een verdubbeling om de twee jaar. Maar de hardware, het tastbare, is niet aan dezelfde empirische wetmatigheid onderhevig. Elektromotoren en magneten dalen niet exponentieel in prijs. Als je dus een servicerobot bouwt met twee armen en handen, dan kun je uittellen dat elke arm zes of zeven bewegingsrichtingen heeft (schouder, ellenboog, pols (2) en een grijper met twee of drie vingers) en de basis van de robot vier (twee richtingen om in het vlak te rijden, een om mee te kunnen draaien en vaak nog een hoogteverstelling). Bij elkaar zijn dat maar liefst 18 bewegingsmogelijkheden  voor het systeem – ook wel vrijheidsgraden genoemd – en elk van die 18 heeft een actuator (motor), een meetopnemer (sensor) en een kleine computer (het lokale brein voor die beweging). Als de aanwezigheid van zo’n robot ertoe leidt dat de wijkverpleegkundige nog maar eenmaal per dag langs hoeft te komen in plaats van tweemaal, dan kun je schatten wat dat gaat opleveren. Rekening houdend met de afschrijving en servicekosten van een dergelijke robot,  zouden we die bijvoorbeeld willen kunnen maken voor minder dan 5 000 euro, anders is er geen businesscase – maar dit lijkt nog wel even toekomstmuziek. Merk op dat de consequentie dat een mens minder vaak bij je langskomt de gedachte zou kunnen geven dat de hulpbehoevende mens zou kunnen vereenzamen. Het is echter ook zo dat het hebben van een robot thuis het gevoel van afhankelijkheid aanzienlijk vermindert: je bepaalt immers zelf wanneer je een kopje thee wilt, en je hoeft daarvoor niet meer op een zorgverstrekker te wachten.

Om de kostprijs te verlagen is het interessant te bedenken dat er sedert kort hulp komt uit onverwachte hoek, namelijk de automotivesector. Tegenwoordig worden er miljarden geïnvesteerd in het volledig autonoom maken van de auto, of op zijn minst op de ontwikkeling van functies die het rijden steeds onafhankelijker maken van de mens – en daardoor ook veiliger. Na ICT is de automotivesector de grootste industrietak ter wereld. Als daar iets belangrijks gebeurt, heeft dat een enorme invloed. De probleemstelling is vrijwel gelijk aan de onderzoeksvragen bij het voetbal en de servicerobots: begrijpt de auto wat hij ziet in de veranderende omgeving waarin hij zich bevindt? Is dit alles betaalbaar en betrouwbaar te maken? Hoe gaat de mens ermee om? Op een snelweg kun je je best voorstellen dat een auto een heel eind volledig zelfstandig kan rijden, maar in de binnenstad? De wet van Moore helpt hier echter wel: rekenkracht en sensoren worden zo goedkoop dat de auto van de toekomst beter gezien kan worden als een iPad op wielen. Een interessante gedachte daarbij is ook dat, als één auto iets heeft geleerd, die kennis via een simpele druk op een software-updateknop met alle auto’s gedeeld kan worden. Hoe anders dan hoe de mens leert! Het omgekeerde is ook waar: als alle auto’s met het internet verbonden zijn, wordt een onvoorstelbare hoeveelheid data beschikbaar die vervolgens ook weer centraal kan worden verwerkt tot nieuwe inzichten, en dat kan dan weer naar elke individuele auto worden verstuurd. Ditzelfde kun je je wellicht ook voorstellen met servicerobots die huiskamers proberen te begrijpen. De privacy van data is hierbij natuurlijk wel een zeer belangrijk aandachtspunt. Evenzo is het belangrijk dat de robots dezelfde universele taal spreken, en ook dat is nog niet opgelost.

Rekenkracht en sensoren worden zo goedkoop dat de auto van de toekomst beter gezien kan worden als een iPad op wielen

De andere belangrijke ontwikkeling zijn de robots in de operatiekamers van de toekomst. Die chirurgische robots bestaan al lang. Sedert een jaar of vijfentwintig geleden werden er een aantal pogingen gedaan om dit goed te ontwikkelen. De doorbraak kwam er zo’n vijftien jaar geleden met de DaVinci-robot, waarvan er nu wereldwijd zo’n 4 500 in gebruik zijn. Deze robots hebben in ieder geval voor artsen zichtbaar gemaakt dat het fijn is om met zo’n robot te werken, hoewel nog niet is aangetoond dat het effectiever is qua kosten, of dat het voor de patiënt altijd beter is. Artsen zijn vaak wel enthousiast. De DaVinci is groot, duur in aanschaf én gebruik, en alleen geschikt voor operaties in de buik- en borstholte. Het toestel is vooral een verlengstuk van je arm, dat niet per se precisie toevoegt, maar wel het trillen van de hand eruit kan filteren. Ook wordt de zithouding van de chirurg sterk verbeterd, zodat er zeker een groot ergonomisch voordeel is. De nieuwste generatie robots, voor bijvoorbeeld oogchirurgie, vaatchirurgie en botchirurgie, maakt echt een nauwkeurigheidsslag. De bewegingen van de chirurg worden door de robot verkleind: een beweging van een centimeter met de hand wordt een millimeter bij de robot. Die schaalfactor kun je eenvoudig aanpassen in de computer. Dit zorgt ervoor dat je met de robot operaties kunt uitvoeren die zonder bijna onmogelijk zijn. Het is boeiend om te bedenken dat men al een paar eeuwen geleden bedacht heeft om onze ogen veel beter te maken door middel van microscopen. Dat is ook wat chirurgen gebruiken wanneer ze precisiewerk moeten doen. Maar een goed hulpmiddel om hun handen, te perfectioneren, daarvoor zijn vooralsnog weinig producten op de markt. Als voorbeeld hiervan nemen we een oogoperatie aan het netvlies. Soms komt daar een vliesje op te liggen van enkele micron dik (een micron is een duizendste van een millimeter). De huidige praktijk is dat een oogchirurg door een microscoop in het oog van de patiënt kijkt, via de lens. In elke hand heeft hij of zij een heel erg dun instrument vast dat via het witte deel in het oog steekt. Door de handen te bewegen kan het vliesje worden vastgepakt en verwijderd met heel kleine pincetjes aan het eind van de dunne instrumenten. Als de chirurg een beetje trilt kan het netvlies worden geraakt, en zouden beschadigingen kunnen optreden.

Stel je nu voor dat een robot de dunne instrumentjes vastheeft, en dat de chirurg een grote joystick bedient. Door de beweging van de joystick via een computer te koppelen aan de robot, kan de chirurg dus op een afstand opereren. Maar nog belangrijker: de robot kan nauwkeuriger worden gemaakt dan de mens, en dus geven we als het ware de chirurg ‘gouden handen’. Het is precies hierom dat dergelijke master-slavesystemen de robothandjes van de toekomstige chirurg worden. Een robot als collega, in de operatiekamer van de toekomst.

J.J.M. Lunenburg, Context-aware design and motion planning for autonomous service robots (PhD thesis). (Eindhoven: Technische Universiteit Eindhoven, 2015).

T.L. Edwards, K. Xue, H.C.M. Meenink, M.J. Beelen, G.J.L. Naus, M.P. Simunovic, M. Latasiewicz, A.D. Farmery, M.D. de Smet & R.E. MacLaren, ‘First-in-human study of the safety and viability of intraocular robotic surgery’ In: Nature Biomedical Engineering, 2018, 2(9), 649-656.

J. Bos, A robot for bone sculpting surgery (PhD thesis). (Eindhoven: Technische Universiteit Eindhoven, 2018).

Maarten Steinbuch is universiteitshoogleraar aan de Technische Universiteit Eindhoven en sectieleider van de groep Control Systems Technology. Hij doet met zijn groep onderzoek naar mechatronica en robotsystemen, automotive-aandrijftechniek, en regeltechniek voor kernfusie.

Deel dit artikel

Gerelateerde artikelen