¿Qué significa IA de caja negra?
La IA de caja negra es cualquier tipo de inteligencia artificial (IA) que sea tan compleja que su proceso de toma de decisiones no pueda explicarse de forma que los humanos puedan entenderlo fácilmente. La IA de caja negra es lo contrario de la IA explicable (XAI).
Las causas de la IA de caja negra son:
- TI propietaria: El funcionamiento interno de un modelo de IA se mantiene en secreto para proteger la propiedad intelectual.
- Aprendizaje profundo: Las redes neuronales profundas (DNN) y los algoritmos de aprendizaje profundo crean miles (y a veces millones) de relaciones no lineales entre entradas y salidas. La complejidad de las relaciones hace que sea difícil para un humano explicar qué características o interacciones condujeron a un resultado específico.
La IA de caja negra es indeseable por varias razones. Cuando no se comprende el funcionamiento interno de un sistema de IA, resulta cada vez más difícil identificar por qué un modelo de IA produce resultados sesgados y dónde se producen errores de lógica. También dificulta determinar quién debe rendir cuentas cuando los resultados son defectuosos o directamente peligrosos.
Definición de IA de caja negra
Cuando un sistema de IA es transparente e interpretable, resulta más fácil confiar en la integridad del sistema y en la precisión de sus resultados.
La transparencia y la interpretabilidad pueden lograrse mediante diversos enfoques, como el diseño y el uso de algoritmos que sean fácilmente comprensibles para los humanos, asegurándose de que los comentarios humanos siempre desempeñen un papel en el proceso de toma de decisiones y desarrollando herramientas capaces de proporcionar explicaciones visuales de cómo una aplicación de IA llega a una decisión.
Entre las herramientas más populares que se están desarrollando para evitar la IA de caja negra y garantizar una IA responsable se incluyen:
- LIME (Local Interpretable Model-Agnostic Explanations)
- SHAP (Explicaciones aditivas SHapley)
- ELI5 (Explícate como si tuviera 5 años)
- DALEX (Explicaciones Descriptivas del Aprendizaje de Máquinas)
Nota del editor: Según la Guía de Estilo de Apple, los escritores deben evitar el término caja negra y utilizar en su lugar los términos caja cerrada o caja opaca. Al redactor de esta definición le gustaría proponer «caja misteriosa» como etiqueta sustitutiva.