IA de caja negra

Fiabilidad

¿Qué significa IA de caja negra?

La IA de caja negra es cualquier tipo de inteligencia artificial (IA) que sea tan compleja que su proceso de toma de decisiones no pueda explicarse de forma que los humanos puedan entenderlo fácilmente. La IA de caja negra es lo contrario de la IA explicable (XAI).

Las causas de la IA de caja negra son:

  • TI propietaria: El funcionamiento interno de un modelo de IA se mantiene en secreto para proteger la propiedad intelectual.
  • Aprendizaje profundo: Las redes neuronales profundas (DNN) y los algoritmos de aprendizaje profundo crean miles (y a veces millones) de relaciones no lineales entre entradas y salidas. La complejidad de las relaciones hace que sea difícil para un humano explicar qué características o interacciones condujeron a un resultado específico.

La IA de caja negra es indeseable por varias razones. Cuando no se comprende el funcionamiento interno de un sistema de IA, resulta cada vez más difícil identificar por qué un modelo de IA produce resultados sesgados y dónde se producen errores de lógica. También dificulta determinar quién debe rendir cuentas cuando los resultados son defectuosos o directamente peligrosos.

Definición de IA de caja negra

Cuando un sistema de IA es transparente e interpretable, resulta más fácil confiar en la integridad del sistema y en la precisión de sus resultados.

La transparencia y la interpretabilidad pueden lograrse mediante diversos enfoques, como el diseño y el uso de algoritmos que sean fácilmente comprensibles para los humanos, asegurándose de que los comentarios humanos siempre desempeñen un papel en el proceso de toma de decisiones y desarrollando herramientas capaces de proporcionar explicaciones visuales de cómo una aplicación de IA llega a una decisión.

Entre las herramientas más populares que se están desarrollando para evitar la IA de caja negra y garantizar una IA responsable se incluyen:

  • LIME (Local Interpretable Model-Agnostic Explanations)
  • SHAP (Explicaciones aditivas SHapley)
  • ELI5 (Explícate como si tuviera 5 años)
  • DALEX (Explicaciones Descriptivas del Aprendizaje de Máquinas)

Nota del editor: Según la Guía de Estilo de Apple, los escritores deben evitar el término caja negra y utilizar en su lugar los términos caja cerrada o caja opaca. Al redactor de esta definición le gustaría proponer «caja misteriosa» como etiqueta sustitutiva.

Temas relacionados

Margaret Rouse
Technology expert
Margaret Rouse
Experta en tecnología

Margaret Rouse es una galardonada escritora técnica y profesora conocida por su habilidad para explicar temas técnicos complejos a una audiencia de negocios no técnica. Durante los últimos veinte años, sus explicaciones han aparecido en sitios web de TechTarget y ha sido citada como autoridad en artículos del New York Times, Time Magazine, USA Today, ZDNet, PC Magazine y Discovery Magazine. La idea de diversión de Margaret es ayudar a profesionales de TI y negocios a aprender a hablar los idiomas altamente especializados de cada uno. Si tienes una sugerencia para una nueva definición o cómo mejorar una explicación técnica,…