El uso de la inteligencia artificial (IA) para ayudar a los pacientes de salud mental es un campo de minas ético.
Cuando se utiliza correctamente, la IA, junto con el aprendizaje automático (ML), puede ayudar a identificar nuevos tratamientos y acelerar el tratamiento de los pacientes. Pero si se utiliza incorrectamente, puede dar lugar a diagnósticos erróneos e impedir que las personas vulnerables reciban el apoyo que necesitan.
Al mismo tiempo, escasean los profesionales de la salud mental. La Organización Mundial de la Salud (OMS) calcula que casi mil millones de personas padecerán un trastorno mental en 2019, por lo que existe una importante escasez de orientadores, psiquiatras y psicólogos para ayudar a los pacientes.
En este contexto, los proveedores de software han empezado a crear aplicaciones y chatbots, como Woebot y Wysa, que utilizan la IA para ayudar a los usuarios con síntomas leves de trastornos como la depresión y la ansiedad. Con estos chatbots, los usuarios pueden hablar de sus emociones y recibir apoyo y orientación básicos de un agente automatizado.
Aunque los estudios muestran que muchos usuarios encuentran útiles estas aplicaciones, no están exentas de riesgos. Por ejemplo, a principios de este año, un belga se suicidó después de que el chatbot de IA Chai supuestamente le animara a quitarse la vida tras seis semanas de idas y venidas.
En este caso, el chatbot de IA que genera respuestas perjudiciales puede haber influido en una persona vulnerable para que se quitara la vida.
El argumento ético central en torno a la IA en la salud mental
Cuando se considera que lo que está en juego al utilizar la IA en la atención sanitaria es tan dramático como la vida o la muerte, corresponde a los profesionales de la salud mental, los investigadores clínicos y los desarrolladores de software definir un nivel de riesgo aceptable en torno al uso de la tecnología.
Por ejemplo, si un proveedor de software crea un chatbot para que los usuarios hablen de sus síntomas con él, tiene que tener unos límites bien definidos para reducir el riesgo de que la solución alucine con los hechos. Las barandillas básicas podrían incluir una cláusula de exención de responsabilidad y servicios de asistencia en directo de profesionales cualificados para actuar como una capa adicional de seguridad.
A un alto nivel, cualquier entidad que intente desplegar IA para apoyar a los usuarios necesita identificar si el despliegue de inteligencia artificial está poniendo en riesgo a los usuarios vulnerables o acelerando su capacidad para acceder a tratamiento o apoyo.
Como afirma un investigador en salud mental, “la inteligencia artificial tiene un inmenso potencial para redefinir nuestros diagnósticos y ayudar a comprender mejor las enfermedades mentales”. Las enfermedades mentales de una persona, las tecnologías de inteligencia artificial pueden tener la capacidad de desarrollar mejores herramientas de cribado previo al diagnóstico y elaborar modelos de riesgo para determinar la predisposición de un individuo o la posibilidad de que desarrolle una enfermedad mental”.
Dicho esto, las soluciones que utilizan la IA para diagnosticar enfermedades mentales deben basarse en datos de entrenamiento de la máxima calidad para garantizar una precisión óptima. Cualquier imprecisión en el conjunto de datos podría conducir a un diagnóstico erróneo o a un tratamiento inadecuado para los pacientes que necesitan ayuda.
El uso de la IA en el contexto de la salud mental es un ámbito en el que el fin justifica los medios. Si la IA puede utilizarse para mejorar el acceso de un paciente a la asistencia y agilizar el descubrimiento de fármacos, entonces es algo positivo. Si da lugar a diagnósticos erróneos, desinforma o impide que las personas vulnerables accedan al apoyo clínico, entonces no hay nada que hacer.
Equilibrio entre privacidad y asistencia
Tal vez una de las consideraciones más importantes en el debate sobre la ética de la IA es cómo los sistemas de IA recopilan, almacenan y utilizan los datos que alimentan estas soluciones. Esto incluye todo, desde los datos personales de un individuo hasta la información emocional y conductual sensible.
Como mínimo, los investigadores clínicos y los proveedores de software que procesan datos de pacientes deben asegurarse de que cuentan con el consentimiento informado de las personas, o los datos deben ser desidentificados o anonimizados para que la información personal identificable (IPI), la información electrónica protegida sobre la salud (EPHI) y los historiales médicos no queden expuestos a terceros no autorizados.
Los requisitos para hacerlo pueden ser extremadamente complejos, sobre todo cuando normativas como la HIPAA imponen estrictos requisitos de protección de datos a los datos sanitarios electrónicos, e incluso la anonimización puede descifrarse si no se protege adecuadamente.
Por este motivo, muchos proveedores son extremadamente selectivos con los datos que utilizan para alimentar las aplicaciones de IA, de modo que puedan evitar las responsabilidades derivadas del cumplimiento de la normativa. Aunque esto ayuda a proteger la privacidad del usuario, lo hace reduciendo la cantidad total de datos disponibles para su procesamiento.
En última instancia, hay que encontrar un equilibrio entre la protección del anonimato de los datos del paciente y la obtención del consentimiento informado, y la recopilación de datos suficientes para ofrecer información de alta calidad que sirva de base para el tratamiento y el diagnóstico.
Lo esencial
Si la IA ofrece sistemáticamente resultados positivos a los pacientes, se justificará como una herramienta a la que recurrir para los profesionales de la salud mental.
Ya estamos viendo el éxito de la IA en el diagnóstico y el descubrimiento de tratamientos para la esquizofrenia y la bipolaridad, y si esta tendencia continúa, habrá mucha menos ansiedad por experimentar con estas tecnologías en el sector.
Por el contrario, si más chatbots aparecen en las noticias por no ayudar a los pacientes de salud mental, la IA podría retroceder significativamente en el sector. Dado que la ética del uso de la IA en la atención sanitaria aún está en proceso de definición, corresponde a los investigadores, los profesionales y los proveedores de software establecer las normas para el desarrollo ético de la IA.