¿Qué es Human in the Loop (HITL)?
Human in the loop (HITL) es una estrategia de diseño que subraya la importancia de la valoración o feedback de los humanos en el desarrollo y el funcionamiento de un sistema de inteligencia artificial (IA). HITL reconoce que la IA y la inteligencia humana tienen cada una sus puntos fuertes y sus limitaciones, y que ambos tipos de inteligencia son necesarios para generar los mejores resultados.
Esto es particularmente relevante en áreas como las finanzas, el transporte y la aplicación de la ley, donde los resultados generados por la IA pueden tener un impacto significativo en la vida de alguien.
El grado de implantación de los sistemas de IA centrados en el ser humano puede variar enormemente en función de los objetivos específicos del proyecto de IA, la complejidad del sistema de IA, los riesgos que entraña y los recursos disponibles del equipo del proyecto. En algunos casos, el HITL sólo puede utilizarse durante la fase de desarrollo de un sistema de IA para complementar el aprendizaje por refuerzo.
Una vez etiquetados los datos de entrenamiento y establecidos los parámetros de toma de decisiones, la intervención humana puede limitarse a iniciativas de reentrenamiento, cuando sea necesario.
En otros casos, la colaboración hombre-máquina puede continuar durante las operaciones para evitar la deriva de la IA y mantener los resultados óptimos a medida que cambian las condiciones y/o se dispone de nuevos datos.
El grado de implantación de los sistemas HITL también puede verse influido por el panorama normativo en el que se despliega un sistema de IA. En algunos sectores, como la sanidad o la aviación, por ejemplo, puede haber requisitos estrictos para que los humanos supervisen y validen las decisiones tomadas por los algoritmos de aprendizaje profundo para garantizar resultados justos y equitativos.
Ejemplos de implementación de Human in the Loop
La implementación de human-in-the-loop no es una solución única. La naturaleza de la(s) tarea(s) para la(s) que está diseñado un sistema de IA puede variar ampliamente y requerir diferentes grados de participación humana. Las tareas rutinarias de bajo nivel pueden automatizarse con sólo una supervisión humana ocasional, mientras que las tareas más complejas y/o delicadas pueden requerir la intervención humana durante todo el ciclo de vida de desarrollo del software (SDLC).
Ciclo de vida
Human in the Loop
Configuración inicial
Esta fase del proceso de diseño define las responsabilidades específicas de los operadores humanos y establece límites claros para la toma de decisiones, la ejecución de tareas y las funciones de supervisión. También incluye el establecimiento de canales de comunicación para apoyar los bucles de retroalimentación hombre-máquina.
Fase de formación
El uso de operadores humanos en esta fase es especialmente importante cuando el sistema de IA incorpora componentes de machine learning. Los humanos pueden utilizarse para etiquetar los datos de entrenamiento y proporcionar retroalimentación que ayudará a enseñar al sistema de IA a realizar sus tareas designadas con mayor precisión.
Fase operativa
Se pueden utilizar operadores humanos para supervisar de cerca el rendimiento del sistema de IA. Durante esta fase, los bucles de retroalimentación ayudan al sistema de IA a mejorar de forma iterativa y gradual sus operaciones y optimizar los resultados.
Mejora continua
Durante esta fase del ciclo de vida, los operadores humanos pueden participar en la identificación de oportunidades de mejora del sistema y en sesiones de reciclaje diseñadas para mejorar la precisión y la relevancia de la IA.
Control de calidad
Los operadores humanos pueden encargarse de gestionar las excepciones e incertidumbres que pueda encontrar la IA, así como de realizar auditorías para garantizar que las decisiones del sistema de IA cumplen sistemáticamente los cambiantes mandatos normativos y éticos.
Interacción con el cliente
Cuando las interfaces de usuario basadas en IA, como los chatbots o los asistentes virtuales, encuentran dificultades o limitaciones, se puede recurrir a operadores humanos para que ayuden a la IA conversacional en tiempo real. Esto es especialmente importante en contextos de cara al cliente, cuando la IA puede no ser capaz de proporcionar una experiencia de usuario (UX) satisfactoria por sí sola.
Control de calidad
El juicio humano puede desempeñar un papel importante en el mantenimiento del control de calidad (CC) y en la garantía de calidad (GC). Se pueden utilizar operadores humanos para realizar auditorías manualmente, gestionar excepciones y resolver conflictos que la programación de IA pueda encontrar.
Ventajas de Human in the Loop en la IA
HITL puede ayudar a prevenir la IA de blackbox y mejorar la responsabilidad y transparencia de la IA añadiendo puntos de control que requieren que los humanos revisen, interpreten y, si es necesario, corrijan o anulen las decisiones de la IA. La presencia de un elemento humano proporciona una capa adicional de escrutinio, que puede ser crucial para explicar los resultados a las partes interesadas y mantener la confianza en las aplicaciones de IA.
Limitaciones de la intervención humana en la IA
La adición de la supervisión humana a un sistema de IA no resuelve automáticamente todos los problemas relacionados con la transparencia y la responsabilidad cuando la IA toma malas decisiones.
La forma en que se integra la aportación humana, los prejuicios y la experiencia de las personas implicadas, y los procesos establecidos para facilitar la colaboración hombre-máquina pueden tener un impacto significativo en la eficacia de la asociación hombre-máquina.
Si se requiere interacción humana con demasiada frecuencia o si el proceso de interacción es demasiado engorroso, puede ralentizar la aplicación y anular potencialmente muchas de las ventajas de utilizar inteligencia artificial en primer lugar.