AI kan een gamechanger zijn voor geestelijke gezondheidszorg, maar is een ethisch mijnenveld

Kunstmatige intelligentie (AI) heeft het potentieel om een gamechanger te zijn in de geestelijke gezondheidszorg, maar brengt tegelijkertijd een complex ethisch vraagstuk met zich mee.

Het gebruik van AI om patiënten in de geestelijke gezondheidszorg te ondersteunen, vormt een ethische uitdaging. Op de juiste wijze toegepast, kan AI, in combinatie met machine learning (ML), bijdragen aan de identificatie van nieuwe behandelingen en versnelling van de zorg voor patiënten. Maar bij onjuist gebruik kan het leiden tot verkeerde diagnoses en het ontzeggen van essentiële hulp aan kwetsbare individuen.

Bovendien kampt de geestelijke gezondheidszorg met een tekort aan artsen. Volgens schattingen van de Wereldgezondheidsorganisatie (WHO) leeft sinds 2019 bijna een miljard mensen wereldwijd met psychische aandoeningen, wat resulteert in een aanzienlijk tekort aan adviseurs, psychiaters en psychologen die patiënten kunnen bijstaan.

In deze context zijn softwareleveranciers begonnen met het ontwikkelen van apps en chatbots, zoals Woebot en Wysa, die gebruikmaken van AI om gebruikers met milde symptomen van aandoeningen zoals depressie en angst te ondersteunen. Deze chatbots stellen gebruikers in staat om over hun emoties te praten en basisbegeleiding te ontvangen van een geautomatiseerde bot.

Hoewel studies aantonen dat veel gebruikers deze apps als nuttig ervaren, zijn er ook risico’s. Zo werd eerder dit jaar gemeld dat een Belgische man zelfmoord pleegde nadat de AI-chatbot Chai hem na zes weken conversatie had aangemoedigd om zelfmoord te plegen.

In dit geval kan de AI-chatbot schadelijke reacties hebben veroorzaakt en mogelijk een kwetsbaar individu hebben beïnvloed om zichzelf van het leven te beroven.

Het cruciale ethische debat rondom AI in de geestelijke gezondheidszorg

In een domein waar AI letterlijk over leven en dood gaat, ligt de verantwoordelijkheid bij geestelijke gezondheidsexperts, klinische onderzoekers en softwareontwikkelaars om een aanvaardbaar risiconiveau te definiëren voor het gebruik van deze technologie.

Wanneer een softwareleverancier bijvoorbeeld een chatbot creëert waarmee gebruikers hun symptomen kunnen bespreken, dienen strikte maatregelen te worden genomen om het risico van overmatige betrokkenheid van de chatbot te minimaliseren. Dit kan onder andere het toevoegen van een disclaimer en de beschikbaarheid van live ondersteuning door gekwalificeerde professionals omvatten.

Op een hoger niveau moeten alle partijen die AI inzetten ter ondersteuning van gebruikers beoordelen of het gebruik van kunstmatige intelligentie de kwetsbare gebruikers in gevaar brengt of juist hun toegang tot behandeling en ondersteuning versnelt.

Een onderzoeker op het gebied van geestelijke gezondheid benadrukt: “Kunstmatige intelligentie heeft het potentieel om onze diagnostische benaderingen te herdefiniëren en ons begrip van psychische aandoeningen te vergroten. AI-technologieën kunnen betere pre-diagnostische screeningsinstrumenten ontwikkelen en risicomodellen verfijnen om de kans op het ontwikkelen van een psychische aandoening bij individuen vast te stellen.

Het gebruik van AI in de geestelijke gezondheidszorg is een situatie waarbij het doel de middelen moet rechtvaardigen. Als AI kan bijdragen aan verbeterde toegang tot ondersteuning voor patiënten en de ontwikkeling van behandelingen kan stroomlijnen, is dat een positieve ontwikkeling. Echter, als het leidt tot verkeerde diagnoses, onjuiste informatie of het ontzeggen van kwetsbare personen toegang tot klinische hulp, moet het worden vermeden.

Privacy en ondersteuning in evenwicht brengen

Een van de meest kritische overwegingen in het debat over AI-ethiek is hoe gegevens die deze oplossingen aandrijven, worden verzameld, opgeslagen en gebruikt door AI-systemen. Dit omvat persoonlijke gegevens, maar ook gevoelige emotionele en gedragsinformatie.

In ieder geval moeten klinische onderzoekers en softwareleveranciers die patiëntgegevens verwerken, zorgen voor geïnformeerde toestemming van individuen, of de gegevens moeten worden geanonimiseerd om persoonlijk identificeerbare informatie (PII), elektronisch beschermde gezondheidsinformatie (EPHI) en medische dossiers te beschermen tegen onbevoegde toegang.

Het voldoen aan regelgeving zoals HIPAA, die strenge eisen stelt aan de bescherming van elektronische gezondheidsgegevens, kan complex zijn. Anonimisering kan bijvoorbeeld worden doorbroken als het niet adequaat wordt beveiligd.

Om deze reden zijn veel aanbieders selectief in het gebruik van gegevens voor AI-toepassingen om naleving te garanderen. Hoewel dit de privacy van gebruikers beschermt, beperkt het de beschikbare gegevens voor verwerking.

Uiteindelijk moet een balans worden gevonden tussen het beschermen van de anonimiteit van patiëntgegevens, het verkrijgen van geïnformeerde toestemming en het verzamelen van voldoende gegevens voor hoogwaardige inzichten in behandeling en diagnose.

Conclusie

Als AI consistent positieve resultaten oplevert voor patiënten, zal het zichzelf rechtvaardigen als een waardevol instrument voor geestelijke gezondheidszorgprofessionals.

We zien nu al succesvolle toepassingen van AI bij het stellen van diagnoses en het ontdekken van behandelingen voor aandoeningen als schizofrenie en bipolaire stoornissen. Als deze trend doorzet, zal de sector minder terughoudend zijn om met deze technologie te experimenteren.

Aan de andere kant, als er meer incidenten met chatbots in het nieuws komen vanwege ontoereikende ondersteuning voor patiënten, kan dit het gebruik van AI in deze sector aanzienlijk belemmeren. Aangezien de ethiek van AI in de gezondheidszorg nog in ontwikkeling is, ligt het aan onderzoekers, professionals en softwareleveranciers om normen te definiëren voor ethische ontwikkeling van AI.

Tim Keary

Sinds januari 2017 is Tim Keary een freelance technologieschrijver en verslaggever die zich bezighoudt met bedrijfstechnologie en cyberbeveiliging.