Las empresas utilizan el pensamiento “contrafáctico” de la IA para verificar sus decisiones

Fiabilidad
Resumen

¿Ha tenido alguna vez un momento de "puertas correderas"? Las explicaciones contrafácticas dentro de la IA permiten poner a prueba los momentos "¿Y si...?" de la vida. Empresas como Spotify ya emplean esta tecnología.

En el panorama tecnológico actual, en rápida evolución, nuestras vidas están cada vez más entrelazadas con los sistemas de inteligencia artificial (IA).

La IA toma decisiones que nos afectan de manera significativa, desde el diagnóstico de enfermedades hasta la predicción de mutaciones genéticas o terremotos, por no hablar de las innumerables formas en que estamos empezando a utilizar la tecnología en la vida cotidiana.

Cuando estas decisiones impulsadas por la IA no se ajustan a nuestras expectativas o preferencias, exigimos algo más que explicaciones sobre sus elecciones.

Buscamos entender no sólo por qué la IA tomó una decisión concreta, sino también qué medidas podemos tomar para alterar esa decisión a nuestro favor.

Esta comprensión es lo que llamamos «explicaciones contrafácticas». Implica explorar escenarios del tipo «y si…», en los que investigamos cómo la alteración de los datos de entrada o de las condiciones podría haber conducido a una decisión o un resultado diferentes.

A diferencia de la IA explicable (XAI), en la que nos limitamos a identificar los factores que influyeron en una decisión, las explicaciones contrafactuales aportan información práctica que nos orienta sobre cómo revertir una decisión. Responden a cómo podemos modificar los atributos para cambiar la decisión.

Estas explicaciones son optimistas y revelan cómo un cambio mínimo puede alterar la decisión.

 

¿Por qué utilizar explicaciones contrafácticas en la IA?

Las explicaciones contrafácticas ofrecen ventajas significativas para la IA, entre ellas:

– Transparencia: Proporcionan información sobre el proceso de toma de decisiones de los sistemas de IA, lo que facilita la comprensión y la interpretación de sus decisiones.
– Responsabilidad: Permiten una evaluación más precisa del razonamiento de la IA y de sus posibles sesgos.
– Mejora: Al comprender cómo diferentes entradas o condiciones podrían conducir a diferentes resultados, los sistemas de IA pueden perfeccionarse y ser más fiables.
– Confianza: Es más probable que los usuarios confíen en los sistemas de IA cuando pueden comprender el razonamiento que subyace a las decisiones tomadas.

Además de hacer que la IA sea explicable y digna de confianza, las explicaciones contrafácticas pueden aportar información valiosa sobre procesos complejos al revelar relaciones causales en forma de causas y efectos. Este planteamiento puede aplicarse en diversos ámbitos, como:

  • Sistema jurídico y de justicia: La IA se ha abierto camino en los sistemas legal y de justicia, ayudando de muchas maneras. Las explicaciones contrafácticas pueden ayudarnos a entender lo que podría ocurrir si tomáramos distintas decisiones jurídicas. Esto no sólo es útil para los abogados; es como tener un asesor jurídico que puede responder a preguntas del tipo «qué pasaría si…». Tanto si se trata de averiguar los efectos de diversas decisiones jurídicas como de establecer quién es responsable en un caso, la IA con explicaciones contrafácticas puede ser una herramienta útil para obtener las respuestas que necesitamos.
  • Medicina y sanidad: Los sistemas de IA están muy extendidos en el sector médico y sanitario. Las explicaciones contrafácticas pueden ayudar a comprender el impacto de diversos tratamientos, intervenciones y cambios de estilo de vida en los resultados de los pacientes. Estos sistemas también pueden ayudar a médicos y enfermeros a entender mejor por qué la IA sugiere tratamientos específicos ofreciendo sugerencias alternativas. Esto puede mejorar la toma de decisiones y servir de herramienta de aprendizaje para los profesionales de la medicina.
  • Ciencia e investigación: La IA desempeña un papel cada vez más importante en los descubrimientos científicos en diversos campos, desde el descubrimiento de fármacos a la investigación genómica y desde la física de partículas a la climatología. Las explicaciones contrafácticas pueden ayudar a científicos e investigadores a explorar la causalidad en sistemas complejos. Manipulando variables y observando cómo afectan a los resultados, los investigadores pueden profundizar en la comprensión de las relaciones causa-efecto en estos campos, lo que conduce a nuevos descubrimientos.
  • Contratación laboral: Las organizaciones de empleo que utilizan IA para sus procesos de contratación pueden ofrecer a los candidatos rechazados sugerencias sobre cómo pueden mejorar mínimamente sus cualificaciones para futuros puestos, aumentando la transparencia y la equidad en el proceso de contratación.
  • Coches autónomos: Las explicaciones contrafácticas pueden utilizarse para construir una herramienta «what-if» para probar la eficacia de los modelos de IA en los coches autónomos, garantizando su seguridad y fiabilidad.

Ejemplos de explicaciones contrafácticas en el mundo real

La explicación contrafáctica se utiliza en diversas aplicaciones del mundo real. A continuación se mencionan algunas de ellas:

  • Análisis contrafáctico de Spotify: Recomendaciones musicales personalizadas

Spotify está empleando el razonamiento contrafáctico para descubrir el impacto causal de las recomendaciones de contenidos en la participación de los usuarios. El objetivo es comprender la intrincada relación entre las recomendaciones y el compromiso del usuario.

Esto implica considerar qué podría haber pasado si se hubieran tomado decisiones diferentes, como en la película «Sliding Doors». Los investigadores de Spotify han desarrollado un modelo de aprendizaje automático para captar el análisis contrafáctico, con el objetivo de predecir los efectos de distintas acciones y mejorar las recomendaciones musicales personalizadas.

  • Pensamiento contrafáctico en el descubrimiento de fármacos

La Universidad de Rochester ha desarrollado un método «contrafáctico» denominado MMACE (Molecular Model Agonistic Counterfactual Explanations) para que los modelos de IA utilizados en el descubrimiento de fármacos puedan responder a preguntas contrafácticas como por qué se prevé que una molécula atraviese la barrera hematoencefálica y sea soluble o por qué se espera que una molécula inhiba el VIH. El objetivo principal de este método es ayudar al investigador a comprender mejor el descubrimiento de fármacos y los modelos de IA utilizados para ello.

  • Robustez de los modelos de IA frente a ataques adversos

El razonamiento contrafáctico se está convirtiendo en una técnica fundamental para reforzar la resistencia de los modelos de IA de conducción autónoma frente a ataques de adversarios. Dado que los coches autónomos dependen en gran medida de la visión por ordenador basada en el aprendizaje automático, están expuestos a amenazas que implican imágenes manipuladas con precisión con el objetivo de provocar errores, como engañar a un coche para que ignore una señal de tráfico.

El razonamiento contrafáctico permite analizar estas vulnerabilidades planteando preguntas del tipo «qué pasaría si» y estudiando cómo responden los sistemas de IA, lo que conduce a una comprensión más profunda de su entorno. Este mayor conocimiento permite detectar indicios engañosos, lo que sirve de defensa contra los ciberataques.

  • Transformación del diagnóstico médico

El uso del razonamiento contrafáctico en la IA mejora significativamente los diagnósticos médicos. A diferencia de los métodos tradicionales, que son lentos y aislados, la IA con sistemas contrafácticos acelera el análisis y explica por qué se realiza un diagnóstico.

Un estudio realizado en 2020 por Babylon Health y el University College de Londres demuestra que la IA que utiliza sistemas contrafácticos puede diagnosticar enfermedades tan bien como los médicos humanos.

Esta IA explora todas las causas y resultados posibles, incluso los inusuales, lo que potencia su capacidad para resolver problemas y su precisión diagnóstica. Es un gran paso adelante en el diagnóstico médico.

Lo esencial

El poder del pensamiento contrafáctico en la toma de decisiones de la IA es profundo. No sólo hace que la IA sea más transparente, responsable y digna de confianza, sino que también proporciona información práctica que puede dar forma a nuestras decisiones y resultados futuros.

A medida que la IA sigue integrándose en diversos aspectos de nuestras vidas, aprovechar el potencial de las explicaciones contrafácticas es esencial para tomar decisiones informadas y proactivas.

Es hora de aceptar los escenarios «qué pasaría si» y utilizarlos como herramienta para el crecimiento personal y social en este mundo impulsado por la IA.

Temas relacionados

Artículos relacionados

Dr. Tehseen Zia
Tenured Associate Professor
Dr. Tehseen Zia
Profesor titular asociado, Universidad COMSATS de Islamabad (CUI)

El Dr. Tehseen Zia tiene un doctorado y más de 10 años de experiencia investigadora postdoctoral en Inteligencia Artificial (IA). Es profesor titular asociado y dirige la investigación sobre IA en la Universidad Comsats de Islamabad, y coinvestigador principal en el Centro Nacional de Inteligencia Artificial de Pakistán. En el pasado, trabajó como consultor de investigación en el proyecto Dream4cars, financiado por la Unión Europea.