¿Cómo minimizar el sesgo de los algoritmos en la IA sanitaria?

Fiabilidad

La inteligencia artificial (IA): tiene un inmenso potencial en el campo de la medicina, desde la mejora de los descubrimientos farmacéuticos hasta el diagnóstico, el tratamiento y la prestación de asistencia sanitaria. La capacidad de procesar y analizar rápidamente grandes volúmenes de datos abre posibilidades totalmente nuevas.

Sin embargo, para que la sociedad aproveche todas las ventajas de la IA en la atención sanitaria, es crucial abordar el sesgo de los algoritmos. Los conjuntos de datos utilizados para entrenar algoritmos de IA deben ser representativos de toda la población humana, pero existe un largo historial de ausencia o representación errónea de determinados segmentos en la investigación biomédica.

El sesgo en los algoritmos de IA puede generar resultados discriminatorios, imprecisos y poco fiables, lo que podría afectar a la atención al paciente.

Si los datos con los que se entrenan los algoritmos son poco representativos, pueden ser propensos a reforzar el sesgo, lo que puede dar lugar a que esos grupos queden excluidos de los avances médicos, o mal diagnosticados, o incluso vulnerables a resultados fatales.

Minimizar el sesgo de los algoritmos es esencial, y empieza por recopilar y utilizar datos pertinentes. En este artículo, exploramos algunos de los enfoques para mitigar el sesgo de los algoritmos de IA que pueden ayudar a garantizar que los datos utilizados sean relevantes, inclusivos y representativos.

Prevalencia del sesgo algorítmico en medicina

El sesgo algorítmico no siempre es intencionado. A menudo resulta de los sesgos sistémicos inherentes a los datos que se recogen.

Estadísticamente, el sesgo se refiere a la distribución de un conjunto de datos que no refleja con exactitud la distribución de la población. El sesgo estadístico puede hacer que un algoritmo de IA produzca estimaciones inexactas.

En cambio, el sesgo social puede dar lugar a desigualdades que afecten a determinados grupos de la población, señala un artículo de la revista médica Patterns.

Fuente: Patterns. Techopedia

 

Ejemplos de sesgo en los datos médicos

  • Conjuntos de datos entrenados con muestras de lesiones cutáneas de pacientes blancos, que dan lugar a diagnósticos inexactos de pacientes negros
  • Modelos de predicción de enfermedades cardiovasculares que se entrenan con conjuntos de datos predominantemente masculinos, lo que da lugar a diagnósticos erróneos de infartos de miocardio en mujeres
  • Algoritmos de puntuación del sueño entrenados en individuos jóvenes y sanos que no identifican trastornos del sueño en pacientes de edad avanzada

Los algoritmos que clasifican erróneamente de forma desproporcionada a pacientes de grupos minoritarios pueden dar lugar a una prestación sanitaria desigual. Estos sesgos pueden deberse a desequilibrios históricos en los datos, a los métodos de recopilación de datos y al diseño de los modelos de IA.

Para minimizar el sesgo de los algoritmos, es esencial abordar estos sesgos a nivel de datos, garantizando que los datos utilizados en la IA sanitaria sean completos, representativos y libres de disparidades históricas.

Enfoques para minimizar el sesgo de los algoritmos

Aunque existe el riesgo de crear algoritmos de IA para la atención sanitaria con sesgos inherentes, hay varios enfoques que los investigadores y programadores pueden adoptar para minimizar los sesgos y garantizar que sus resultados sean eficaces para el mayor número posible de personas.

Recogida de datos diversos

Uno de los pasos más cruciales para minimizar el sesgo de los algoritmos es asegurarse de que los conjuntos de datos en los que se entrenan los modelos de IA son diversos y representativos de la población de pacientes.

La implementación justa de la IA en la atención sanitaria requiere integrar principios de inclusión, apertura y confianza en los conjuntos de datos biomédicos por diseño.

Un conjunto de datos diversos tiene menos probabilidades de mostrar sesgos sistemáticos, por lo que debe abarcar una amplia gama de variables demográficas, socioeconómicas y geográficas para dar cuenta de la diversidad dentro de la población y garantizar que las predicciones algorítmicas sean estadísticamente representativas.

Los científicos de datos deben evaluar sus datos para asegurarse de que son un reflejo equilibrado de los grupos de la vida real que pretenden representar y evitar el sesgo de confirmación.

Sobremuestreo de grupos infrarrepresentados

Dado que los datos sanitarios históricos suelen infrarrepresentar a determinados grupos demográficos, los investigadores y las organizaciones sanitarias pueden utilizar técnicas de sobremuestreo para recopilar más datos de ellos. Este enfoque ayuda a equilibrar el conjunto de datos y a mitigar el impacto de la infrarrepresentación en los algoritmos de IA.

Auditoría periódica de los datos

Para reducir el sesgo en el etiquetado y la anotación de datos, los equipos de datos deben estar capacitados para etiquetar los datos de manera justa, sin la influencia de ningún sesgo personal o sistémico.

La realización periódica de auditorías de datos es esencial para identificar y abordar los sesgos en el conjunto de datos, incluidas las discrepancias en el etiquetado.

Las auditorías deben examinar los datos en busca de posibles sesgos y corregir cualquier desequilibrio, inexactitud o incoherencia.

Las auditorías de datos también pueden revelar la evolución de las tendencias y los cambios demográficos, lo que puede ayudar a garantizar que la recopilación de datos siga siendo pertinente a lo largo del tiempo.

Colaboración con diversas partes interesadas

La colaboración entre profesionales sanitarios, pacientes, expertos en ética y científicos de datos puede proporcionar perspectivas más completas para identificar y abordar posibles fuentes de sesgo en los datos sanitarios.

Compartir datos no siempre es posible debido a la necesidad de proteger la privacidad y la seguridad de los pacientes. Sin embargo, compartir código y reentrenar algoritmos con fuentes de datos relevantes, por ejemplo, en hospitales de todo el mundo, puede sortear la falta de diversidad en los actuales conjuntos de datos compartidos.

Equidad algorítmica

La IA y los modelos de aprendizaje automático deben probarse antes y después de su despliegue para identificar y eliminar sesgos. Los investigadores deben probar los algoritmos sobre el terreno para evaluar su rendimiento en diferentes grupos de población y entornos clínicos.

«Dadas las implicaciones éticas de la IA en medicina, los algoritmos de IA deben evaluarse con el mismo rigor que otras intervenciones sanitarias, como los ensayos clínicos», afirma el artículo de la revista médica.

Los investigadores pueden utilizar técnicas como la reponderación, el remuestreo y el entrenamiento contradictorio para hacer que los modelos de IA sean más justos, reduciendo el impacto de los sesgos en las predicciones algorítmicas de modo que funcionen de forma coherente en todos los grupos demográficos.

Directrices y normativas éticas

Las organizaciones que despliegan modelos de IA necesitan disponer de un marco estandarizado al que atenerse. Las instituciones sanitarias y los reguladores deben establecer normas y reglamentos éticos claros para el uso de algoritmos y modelos de IA en medicina.

Deben hacer hincapié en la importancia de mitigar los sesgos, garantizar la transparencia y promover la rendición de cuentas. Los reguladores pueden desempeñar un papel importante en la aplicación de estas directrices para apoyar el desarrollo y despliegue responsables de la IA.

Supervisión continua y circuitos de retroalimentación

Los algoritmos de IA deben supervisarse continuamente después de su despliegue. La implementación de circuitos de retroalimentación permite a los científicos de datos y a los investigadores identificar los sesgos emergentes y les permite hacer correcciones antes de que estos sesgos proliferen.

La supervisión periódica garantiza que los modelos de IA sigan siendo eficaces a medida que evoluciona el uso de la tecnología en la atención sanitaria.

El papel de la IA explicable (XAI)

Es fundamental comprender cómo un algoritmo de IA genera sus predicciones y otros resultados. Al aumentar la transparencia, los desarrolladores e investigadores pueden demostrar cómo se utilizan los datos de entrada e identificar los sesgos que deben abordarse.

Esto puede lograrse utilizando la IA explicable (XAI), que documenta cómo un algoritmo genera resultados específicos de forma que los humanos puedan entender el proceso.

La XAI permite a desarrolladores, profesionales sanitarios y pacientes comprender los datos y el razonamiento que subyacen a las recomendaciones de la IA. Esta transparencia puede ayudar a identificar posibles fuentes de sesgo y genera confianza en los sistemas de IA, haciéndolos más adecuados y fiables para su uso en los sistemas sanitarios.

Por ejemplo, si un modelo clasifica erróneamente a pacientes de un grupo demográfico concreto, XAI puede ayudar a identificar los datos específicos responsables del sesgo. La recopilación de datos y los algoritmos pueden entonces ajustarse para hacerlos más precisos.

La XI explicable no puede evitar por completo los sesgos, pero puede ayudar a arrojar luz sobre las causas de un sesgo, un primer paso fundamental para superarlo.

Retos a la hora de abordar el sesgo de los algoritmos

Minimizar el sesgo de los algoritmos en la IA sanitaria es un proceso complejo y continuo. Hay varios retos y consideraciones que deben abordarse:

  • Privacidad y seguridad de los datos: La recopilación de conjuntos de datos diversos y exhaustivos debe respetar la privacidad del paciente e implementar estrictas medidas de seguridad de datos.
  • Gobernanza de los datos: El desarrollo de marcos sólidos para la gobernanza de datos es esencial para garantizar que los datos se recopilen, almacenen y utilicen de manera ética y de acuerdo con las regulaciones.
  • Asignación de recursos: La recopilación y el mantenimiento de datos diversos y representativos requiere importantes recursos, como financiación, personal e infraestructura tecnológica.
  • Entorno normativo: El campo de la IA sanitaria está evolucionando rápidamente, y los organismos reguladores deben seguir el ritmo de estos avances para proporcionar directrices claras para el uso ético y responsable de modelos y sistemas basados en IA.
  • Interoperabilidad: Los datos y la codificación de diferentes sistemas y proveedores sanitarios deben ser interoperables para crear modelos basados en conjuntos de datos completos y precisos que puedan beneficiar al mayor número posible de grupos de población.

Lo esencial

Garantizar la minimización del sesgo algorítmico en la IA sanitaria no es sólo una preocupación tecnológica o práctica, sino una importante consideración ética. Las posibles consecuencias del sesgo algorítmico en la atención sanitaria son profundas, desde el trato discriminatorio hasta los diagnósticos erróneos.

Abordar el sesgo en la IA es esencial para garantizar la justicia, la equidad y la confianza en el sistema sanitario. Hay enfoques que los desarrolladores, científicos, investigadores y reguladores pueden adoptar para crear un ecosistema de IA para la atención sanitaria que sea inclusivo y beneficie al mayor número posible de pacientes.

Temas relacionados

Artículos relacionados

Nicole Willing
Technology Specialist
Nicole Willing
Editora

Nicole Willing cuenta con dos décadas de experiencia en la redacción y edición de contenidos sobre tecnología y finanzas. Es experta en los mercados de materias primas, acciones y criptomonedas, así como en las últimas tendencias del sector tecnológico, desde los semiconductores hasta los vehículos eléctricos. Su experiencia informativa sobre la evolución de los equipos y servicios de redes de telecomunicaciones y la producción de metales industriales le da una perspectiva única sobre la convergencia de las tecnologías del Internet de las Cosas y la fabricación.