search.noResults

search.searching

saml.title
dataCollection.invalidEmail
note.createNoteMessage

search.noResults

search.searching

orderForm.title

orderForm.productCode
orderForm.description
orderForm.quantity
orderForm.itemPrice
orderForm.price
orderForm.totalPrice
orderForm.deliveryDetails.billingAddress
orderForm.deliveryDetails.deliveryAddress
orderForm.noItems
014 Interview


immers niet meer zeggen: dit stoppen we erin en dat komt eruit. Zo zijn diagnostische tools inmiddels in staat om zelf te selecteren welke samples verdacht zijn of welke patiënten een arts als eerste moet zien, zónder dat je de rede- nering daarachter kunt achterhalen. Dat roept allerlei nieuwe ethische vragen op. Bijvoorbeeld in welke gevallen we zo’n AI-selectie acceptabel vinden, en wie er verantwoordelijk is als er iets fout gaat. Overigens moeten we de impact van AI ook niet overschatten. Veel van dit soort medische AI-tools komen hun belofte nog lang niet na. Op dit moment werken ze eigenlijk alleen nog goed op plekken waar grote hoeveel- heden data worden gebruikt, zoals in de radio- logie, pathologie en laboratoria. Wel worden er grote stappen gezet met AI-toepassingen in logistieke werkprocessen. En met het gebruik van large language models, zoals ChatGPT, die bijvoorbeeld automatisch gespreksverslagen maken. Zo kan AI professionals op de werkvloer veel routinematig werk uit handen nemen en tijd besparen. Maar in het primaire zorgproces is de invloed nog beperkt.”


Dus AI gaat niet op korte termijn behandelplannen maken? “Eerlijk gezegd verwacht ik niet dat dat ooit zal gebeuren. AI-technologie kan een waardevol hulpmiddel zijn voor zorgprofessionals, maar het is niet in staat om mensen te vervangen bij het nemen van behandelbeslissingen en shared decision making. Zo’n systeem houdt immers geen rekening met de specifieke situatie, wensen en waarden van een individuele patiënt, noch met de kennis en ervaring van de professional. Bovendien kunnen AI-toepassingen ongewenste bias bevatten en daardoor soms ook schade toe- brengen of de gezondheidskloof vergroten.”


Waar gaat het dan fout? “Veel medische onderzoeksdata zijn afkomstig van – ik zeg het even heel gechargeerd – Euro- pese witte mannen. Voor vrouwen of mensen met een andere culturele achtergrond zijn die data mogelijk niet representatief. Soortgelijke bias kan ontstaan op basis van bijvoorbeeld leeftijd, opleidingsniveau of regio. Dat is nu natuurlijk ook al zo bij wetenschappelijk onder- zoek. Maar daar wéét je tenminste nog wie er is geïncludeerd, terwijl er niet altijd zicht is op de trainingsdata die AI gebruikt. Het kritische vermogen van de zorgprofessional blijft dus onmisbaar.”


Van 2015 tot eind 2021 was Schermer voorzitter van het Centrum voor Ethiek en Gezondheid (CEG). Al in 2018 publiceerde het CEG een signa- lement met de titel Digitale dokters - Een ethische verkenning van medische expertsystemen. Ruim voor


CURRICULUM VITAE


Maartje Schermer (1969) geboren in Amsterdam


1986-1995


studie geneeskunde UvA 1988-1992


studie filosofie UvA 1995


arts-assistent Slotervaart Ziekenhuis 1995-2001


promotieonderzoek


medische ethiek UvA (AMC) 2001-2002


post-doc onderzoeker


praktische filosofie WUR 2001-2003


post-doc onderzoeker filosofie UvA 2002-2004


beleidsadviseur Raad voor de Volksgezondheid en Zorg (RVZ) 2003-2009


universitair docent


Medische ethiek Erasmus MC 2009-2011


universitair hoofddocent


Medische ethiek en filosofie van geneeskunde, Erasmus MC 2011-2017


voorzitter Vereniging voor Filosofie en Geneeskunde 2011-heden


hoogleraar Filosofie van de geneeskunde 2012-2024


lid Gezondheidsraad en


voorzitter vaste commissie Ethiek en Recht 2015-2021


voorzitter Centrum voor Ethiek en Gezondheid 2020-heden


hoofd sectie Medische


ethiek, filosofie en geschie- denis van de geneeskunde, Erasmus MC 2024


erelid Gezondheidsraad 2024


hoogleraar Gezondheids- techniek in een techno- logische samenleving, KNMG-leerstoel EUR


de grootschalige doorbraak van AI in de zorg werden daarin vragen gesteld over onder andere transparantie van zelflerende systemen en of die wel goed aansluiten bij hoe zorgprofessionals werken.


Was u niet te vroeg met uw rapport? “Zeker niet. Het CEG is juist opgericht om vroeg- tijdig mee te denken over nieuwe ontwikkelin- gen. Eind jaren 90 was er veel discussie over het klonen van schaap Dolly. Had dat eigenlijk wel mogen gebeuren, vroegen mensen zich af. Deels was die vraag mosterd na de maaltijd, want Dolly bestond natuurlijk al. Voor toenmalig minister Borst aanleiding om het CEG te initiëren. Uit- gangspunt was dat we niet meer overvallen wil- den worden door dit soort ethische vragen, maar van meet af aan over innovaties konden meeden- ken. Een mooi voorbeeld is het signalement dat we in 2012 uitbrachten over rechtvaardige selectie bij een pandemie. Oftewel: welke afwegingen maak je als er schaarste dreigt op de intensive care? Met de komst van covid was die vraag acht jaar later ineens heel actueel. We hadden toen veel baat bij het gedane voorwerk. Het laat zien hoe belangrijk het is om vooruit te denken.”


Digitale ontwikkelingen gaan razendsnel. Kun je daar wel op anticiperen? “Nieuwe toepassingen komen echt niet uit de lucht vallen. De ontwikkeling daarvan kost vaak jaren. In die tijd kun je al nadenken over welke knelpunten je kunt verwachten. En dus ook in de ontwikkelfase al vragen stellen over de wenselijkheid en de consequenties. Onderzoe- kers en ontwikkelaars willen graag problemen helpen oplossen, maar denken daarbij soms te veel vanuit de technologie. Heel begrijpelijk, alleen maakt niet elke technologische innovatie de zorg ook echt beter.”


Hoezo? “Goede zorg, het goede doen, gaat niet alleen over een medisch-technologische oplossingen, maar ook over waarden als empathie, menselijk- heid en rechtvaardigheid. Neem de app die Amerikaanse onderzoekers twee jaar geleden ontwikkelden om te bepalen of iemand een verhoogd risico loopt op Alzheimer. Of het recent gepubliceerde rekenmodel van het Alz heimer- centrum Amsterdam dat voorspelt hoe snel Alzheimerpatiënten verslechteren. Ik vraag me oprecht af hoe je deze technologieën zó kunt inzetten, dat ze bijdragen aan goede zorg. Want Alzheimer is nog altijd niet te genezen. Zitten mensen dus wel op dit soort informatie te wachten? Creëert dit niet onnodige onrust en onzekerheid? Of juist de schijn van controle? En verdwijnt het belang van een gesprek over zor- gen en angsten er niet mee naar de achtergrond?


<


Page 1  |  Page 2  |  Page 3  |  Page 4  |  Page 5  |  Page 6  |  Page 7  |  Page 8  |  Page 9  |  Page 10  |  Page 11  |  Page 12  |  Page 13  |  Page 14  |  Page 15  |  Page 16  |  Page 17  |  Page 18  |  Page 19  |  Page 20  |  Page 21  |  Page 22  |  Page 23  |  Page 24  |  Page 25  |  Page 26  |  Page 27  |  Page 28  |  Page 29  |  Page 30  |  Page 31  |  Page 32  |  Page 33  |  Page 34  |  Page 35  |  Page 36  |  Page 37  |  Page 38  |  Page 39  |  Page 40  |  Page 41  |  Page 42  |  Page 43  |  Page 44  |  Page 45  |  Page 46  |  Page 47  |  Page 48  |  Page 49  |  Page 50  |  Page 51  |  Page 52  |  Page 53  |  Page 54  |  Page 55  |  Page 56  |  Page 57  |  Page 58  |  Page 59  |  Page 60  |  Page 61  |  Page 62  |  Page 63  |  Page 64  |  Page 65  |  Page 66  |  Page 67  |  Page 68  |  Page 69  |  Page 70  |  Page 71  |  Page 72  |  Page 73  |  Page 74  |  Page 75  |  Page 76  |  Page 77  |  Page 78  |  Page 79  |  Page 80  |  Page 81  |  Page 82  |  Page 83  |  Page 84