Maartje Schermer: ‘AI kan mensen nooit vervangen’

interview / Maartje Schermer

Arts en filosoof Maartje Schermer houdt zich al 30 jaar bezig met medische ethiek. In haar nieuwe leerstoel richt ze zich op ethische vragen rond digitalisering in de zorg. “Het kritische vermogen van de zorgprofessional blijft onmisbaar.”

Beeld De Beeldredaktie / Guido Benschop

Wat is eigenlijk goede zorg? Die vraag boeit Maartje Schermer (55) al sinds haar studietijd. Als tiener begint ze vol enthousiasme aan haar geneeskunde­opleiding. Dat ze daarbij vooral feiten in haar hoofd moet stampen, is een teleurstelling.

Voor de broodnodige diepgang besluit ze ook filosofie te gaan studeren. “Ik was en ben altijd op zoek naar het grote verhaal”, zegt ze. “Naar hoe zorg is ingebed in de maatschappij, welke regels we daarvoor met elkaar afspreken, wat voor professionals en patiënten werkt en wat niet. Op het snijvlak van geneeskunde en filosofie komen die vragen samen.”

Schermer kiest voor een academische carrière en doet veel onderzoek naar (bio-)medische ethiek. In 2011 krijgt ze bij het Erasmus MC een speciale leerstoel, Filosofie van de geneeskunde. Een jaar later wordt ze lid van de Gezondheidsraad, waar ze zich onder andere buigt over het thema ethiek en recht. Ook is ze nauw betrokken bij Gezondheidsraadadviezen rond covidvaccinaties. Vanaf 15 oktober 2024 bekleedt ze een nieuwe leerstoel: Gezondheidsethiek in een technologische samenleving, een gezamenlijk initiatief van de Erasmus Universiteit en de KNMG.

Waarom juist nu deze leerstoel?

“Digitalisering in de zorg is natuurlijk niets nieuws. Maar er kan steeds meer en de ontwikkelingen gaan ook steeds sneller. Hoe kunnen we bijvoorbeeld e-health, domotica, robots en medische expertsystemen verantwoord inzetten, ook in de eerste en tweede lijn? Hoe veranderen die onze opvattingen over gezondheid en ziekte, en over wat goede zorg is? Zitten zorg­professionals en patiënten wel op dit soort technieken te wachten? En wat betekenen ze voor hoe we in de zorg met elkaar omgaan? Naar dat soort dilemma’s ga ik verder onderzoek doen.”

Met speciale aandacht voor artificial intelligence?

“De grootschalige toepassing van AI zorgt zeker voor een kentering. Tot een paar jaar geleden kon je goed uitleggen en verantwoorden hoe zorgtechnologie werkt. Met de komst van zelf­lerende systemen verandert dat. Daarvan kun je immers niet meer zeggen: dit stoppen we erin en dat komt eruit.

Zo zijn diagnostische tools inmiddels in staat om zelf te selecteren welke samples verdacht zijn of welke patiënten een arts als eerste moet zien, zónder dat je de redenering daarachter kunt achterhalen. Dat roept allerlei nieuwe ethische vragen op. Bijvoorbeeld in welke gevallen we zo’n AI-selectie acceptabel vinden, en wie er verantwoordelijk is als er iets fout gaat.

‘Samenwerking tussen zorgprofessionals en technici wordt steeds belangrijker’

Overigens moeten we de impact van AI ook niet overschatten. Veel van dit soort medische AI-tools komen hun belofte nog lang niet na. Op dit moment werken ze eigenlijk alleen nog goed op plekken waar grote hoeveel­heden data worden gebruikt, zoals in de radiologie, pathologie en laboratoria. Wel worden er grote stappen gezet met AI-toepassingen in logistieke werkprocessen. En met het gebruik van large language models, zoals ChatGPT die bijvoorbeeld automatisch gespreksverslagen maken. Zo kan AI professionals op de werkvloer veel routinematig werk uit handen nemen en tijd besparen. Maar in het primaire zorgproces is de invloed nog beperkt.”

Dus AI gaat niet op korte termijn behandelplannen maken?

“Eerlijk gezegd verwacht ik niet dat dat ooit zal gebeuren. AI-technologie kan een waardevol hulpmiddel zijn voor zorgprofessionals, maar het is niet in staat om mensen te vervangen bij het nemen van behandelbeslissingen en shared decision making. Zo’n systeem houdt immers geen rekening met de specifieke situatie, wensen en waarden van een individuele patiënt, noch met de kennis en ervaring van de professional. Bovendien kunnen AI-toepassingen ongewenste bias bevatten en daardoor soms ook schade toebrengen of de gezondheidskloof vergroten.”

Waar gaat het dan fout?

“Veel medische onderzoeksdata zijn afkomstig van – ik zeg het even heel gechargeerd – Europese witte mannen. Voor vrouwen of mensen met een andere culturele achtergrond zijn die data mogelijk niet representatief. Soortgelijke bias kan ontstaan op basis van bijvoorbeeld leeftijd, opleidingsniveau of regio. Dat is nu natuurlijk ook al zo bij wetenschappelijk onderzoek. Maar daar wéét je tenminste nog wie er is geïncludeerd, terwijl er niet altijd zicht is op de trainingsdata die AI gebruikt. Het kritische vermogen van de zorgprofessional blijft dus onmisbaar.”

Beeld De Beeldredaktie / Guido Benschop

Van 2015 tot eind 2021 was Schermer voorzitter van het Centrum voor Ethiek en Gezondheid (CEG). Al in 2018 publiceerde het CEG een signalement met de titel Digitale dokters – Een ethische verkenning van medische expertsystemen. Ruim voor de grootschalige doorbraak van AI in de zorg werden daarin vragen gesteld over onder andere transparantie van zelflerende systemen en of die wel goed aansluiten bij hoe zorgprofessionals werken.

Was u niet te vroeg met uw rapport?

“Zeker niet. Het CEG is juist opgericht om vroegtijdig mee te denken over nieuwe ontwikkelingen. Eind jaren 90 was er veel discussie over het klonen van schaap Dolly. Had dat eigenlijk wel mogen gebeuren, vroegen mensen zich af. Deels was die vraag mosterd na de maaltijd, want Dolly bestond natuurlijk al. Voor toenmalig minister Borst aanleiding om het CEG te initiëren.

Uitgangspunt was dat we niet meer overvallen wilden worden door dit soort ethische vragen, maar van meet af aan over innovaties konden meedenken. Een mooi voorbeeld is het signalement dat we in 2012 uitbrachten over rechtvaardige selectie bij een pandemie. Oftewel: welke afwegingen maak je als er schaarste dreigt op de intensive care? Met de komst van covid was die vraag acht jaar later ineens heel actueel. We hadden toen veel baat bij het gedane voorwerk. Het laat zien hoe belangrijk het is om vooruit te denken.”

Digitale ontwikkelingen gaan razendsnel. Kun je daar wel op anticiperen?

“Nieuwe toepassingen komen echt niet uit de lucht vallen. De ontwikkeling daarvan kost vaak jaren. In die tijd kun je al nadenken over welke knelpunten je kunt verwachten. En dus ook in de ontwikkelfase al vragen stellen over de wenselijkheid en de consequenties. Onderzoekers en ontwikkelaars willen graag problemen helpen oplossen, maar denken daarbij soms te veel vanuit de technologie. Heel begrijpelijk, alleen maakt niet elke technologische innovatie de zorg ook echt beter.”

Hoezo?

“Goede zorg, het goede doen, gaat niet alleen over een medisch-technologische oplossingen, maar ook over waarden als empathie, menselijkheid en rechtvaardigheid. Neem de app die Amerikaanse onderzoekers twee jaar geleden ontwikkelden om te bepalen of iemand een verhoogd risico loopt op Alzheimer. Of het recent gepubliceerde rekenmodel van het Alz­heimer­centrum Amsterdam dat voorspelt hoe snel Alzheimerpatiënten verslechteren. Ik vraag me oprecht af hoe je deze technologieën zó kunt inzetten, dat ze bijdragen aan goede zorg. Want Alzheimer is nog altijd niet te genezen.

Zitten mensen dus wel op dit soort informatie te wachten? Creëert dit niet onnodige onrust en onzekerheid? Of juist de schijn van controle? En verdwijnt het belang van een gesprek over zorgen en angsten er niet mee naar de achtergrond? Dat soort vragen moet je tijdens de ontwikkeling al stellen, zodat je zo nodig op tijd kunt bijsturen.”

Weten zorgprofessionals voldoende over nieuwe technologieën om die op een verantwoorde manier te kunnen gebruiken?

“Ik denk zeker dat we ze hier beter in moeten trainen. Gebeurt dat niet, dan liggen er verschillende gevaren op de loer. Er is bijvoorbeeld zoiets als een ‘automation bias’. Dat wil zeggen dat mensen geneigd zijn om het advies van een geautoma­tiseerd beslissysteem over te nemen, zelfs als er informatie beschikbaar is die een heel andere kant op wijst.

Het is dus belangrijk om met elkaar goed na te denken over wanneer je naar zo’n systeem luistert en wanneer je je eigen klinische expertise moet volgen. Een ander risico is dat van ‘deskilling’. Dat gebeurt als je te veel op AI gaat leunen en daardoor eigen vaardigheden verliest. En dan is er natuurlijk nog het juridische aspect. Als zorgverlener blijf je altijd verantwoordelijk voor de hulpmiddelen die je gebruikt, dus dan moet je ook wel weten hoe ze werken.”

Is hier in zorgopleidingen genoeg aandacht voor?

“Steeds meer. Het Erasmus MC heeft in het nieuwe curriculum de lijn ‘De technologische arts’. Daarin onderwijzen we geneeskundestudenten over het werken met nieuwe technologieën, inclusief AI. Maar ook over ethische vragen die daarbij komen kijken.

En binnen de studie klinische technologie, aangeboden door de TU Delft, het LUMC en het Erasmus MC, leren studenten alles over de inzet en ontwikkeling van complexe medische technologie. Klinisch technologen – een BIG-geregistreerd beroep – kunnen hun expertise inzetten binnen medische behandelteams. Sowieso wordt samenwerking tussen zorgprofessionals en technici steeds belangrijker.”

Krijgt uiteindelijk iedereen in de zorg met AI te maken?

“Voor de goede orde: dat is nu natuurlijk al zo, want AI is overal, in je telefoon, in apps, noem maar op. Maar ik geloof zeker dat specifieke AI-toepassingen in alle zorgvelden gaan doordringen. Onlangs was ik op een ethiekcongres waar we onder andere spraken over AI in de ggz, vermoedelijk niet het eerste vakgebied waar je bij dit onderwerp aan denkt.

Het ging daar bijvoorbeeld over de vraag of chatbots therapie kunnen gaan geven. Met ChatGPT of andere large language models kun je nu al hele gesprekken voeren. Is het mogelijk om diezelfde technologie in te zetten voor het geven van therapie? Zo ja, mogen we dan van patiënten verlangen dat ze daar gebruik van maken? Wat betekent dat voor de waarde van menselijk contact? Kan zo’n systeem ook herkennen als een patiënt in crisis is? En mag het dan zelf 112 bellen? Allemaal ethische vragen om op voorhand over na te denken.”

Tot slot: wat raadt u zorgprofessionals aan als het om digitalisering gaat?

“Vanuit mijn vakgebied wil ik mensen vooral oproepen goed na te denken over de ethische kanten ervan. Ik denk dat iedereen in de zorg zich bewust is van de morele vragen die met digitalisering gepaard gaan. Maar in de waan van de dag nemen – of krijgen – professionals niet altijd de tijd om erop te reflecteren wat dit in de praktijk betekent. Voor henzelf én voor patiënten en mantelzorgers. Want die gebruiken ChatGPT net zo goed om medische vragen aan te stellen.

Verder zou ik vooral niet te bang zijn voor digitale ontwikkelingen. Verandering is het enige wat constant is, ook in de zorg. Mijn basisartsdiploma van dertig jaar geleden is inmiddels op de werkvloer niets meer waard. En dat is maar goed ook.”

Curriculum vitae

Maartje Schermer (1969) geboren in Amsterdam

  • 1986-1995 studie geneeskunde UvA
  • 1988-1992 studie filosofie UvA
  • 1995 arts-assistent Slotervaart Ziekenhuis
  • 1995-2001 promotieonderzoek medische ethiek UvA (AMC)
  • 2001-2002 post-doc onderzoeker praktische filosofie WUR
  • 2001-2003 post-doc onderzoeker filosofie UvA
  • 2002-2004 beleidsadviseur Raad voor de Volksgezondheid en Zorg (RVZ)
  • 2003-2009 universitair docent Medische ethiek Erasmus MC
  • 2009-2011 universitair hoofddocent Medische ethiek en filosofie van geneeskunde, Erasmus MC
  • 2011-2017 voorzitter Vereniging voor Filosofie en Geneeskunde
  • 2011-heden hoogleraar Filosofie van de geneeskunde
  • 2012-2024 lid Gezondheidsraad en voorzitter vaste commissie Ethiek en Recht
  • 2015-2021 voorzitter Centrum voor Ethiek en Gezondheid
  • 2020-heden hoofd sectie Medische ethiek, filosofie en geschiedenis van de geneeskunde, Erasmus MC
  • 2024 erelid Gezondheidsraad
  • 2024 hoogleraar Gezondheids­techniek in een technologische samenleving, KNMG-leerstoel EUR

Delen