Cuando la IA falla: Cómo sacar partido de la inteligencia artificial que sale mal

Resumen

La inteligencia artificial (IA) dista mucho de ser perfecta y, de hecho, tiene una tasa de fracaso excepcionalmente alta. Estos fracasos se deben a menudo a fallos en el diseño, la metodología y la incomprensión de las diferencias fundamentales entre la IA y el desarrollo de aplicaciones tradicionales. Para lograr el éxito final con la IA, las organizaciones deben identificar y corregir las deficiencias en la entrada de datos, la lógica de procesamiento y las acciones disponibles. Aceptar la falibilidad de la IA e invertir en la comprensión humana de la IA son pasos cruciales para aprovechar su potencial y evitar consecuencias negativas en la emergente economía digital.

La inteligencia artificial (IA) tiene fama de ser perfecta. Recopila todos los datos disponibles, los analiza en un abrir y cerrar de ojos y siempre llega a la solución correcta. Sin embargo, los que tienen experiencia real saben la verdad: la IA se equivoca mucho más a menudo de lo que acierta. De hecho, tiene una tasa de fracaso extraordinariamente alta para una tecnología que va a conquistar el mundo.

Para las empresas que están a la vanguardia de la revolución de la IA, el fracaso forma parte de la curva de aprendizaje o, al menos, debería formar parte de ella si esperan obtener un rendimiento de su inversión. Sólo aprendiendo de sus errores se puede reeducar a la IA para evitarlos en futuras iteraciones.

Y aunque esto puede llevar muchos ciclos, el premio al final es un proceso más ágil y menos costoso.

Inteligencia artificial defectuosa

¿Qué tan mal funciona la IA? Según Ronald Schmelzer, analista principal de la empresa de investigación sobre IA Cognilytica, la tasa de fracaso de los proyectos de IA ronda el 80%. Pero no todo es culpa de la IA. En muchos casos, la culpa la tienen los fallos de diseño y metodología, es decir, que los humanos que realizan la formación no están totalmente al día de los entresijos del desarrollo de la IA.

En la mayoría de los casos, esto se debe a una incomprensión arraigada de cómo la IA cambia el proceso de desarrollo desde la base. En resumen, los proyectos de IA no son lo mismo que los proyectos de desarrollo de aplicaciones tradicionales, y no deben tratarse como tales. Mientras que las aplicaciones se construyen en torno a la funcionalidad, los proyectos de IA se construyen en torno a los datos. Se trata de una diferencia crucial, ya que la IA debe centrarse primero en obtener información de los datos disponibles antes de determinar un curso de acción, en lugar de esperar a disponer de los datos adecuados para ejecutar una función predefinida y precodificada.

Incluso sin este malentendido básico, los modelos de IA siguen sin cumplir sus objetivos. En estos casos, afirman Sasanka Chanda, del Indian Institute of Management, y Debarg Banerjee, de la empresa californiana MachinAnumus Consulting, el fallo puede deberse a dos causas en algún punto del proceso de formación:

  • Comisión: se hizo algo que no debería haberse hecho;
  • Omisión: no se hizo algo que debería haberse hecho.

Entonces, ¿cuál es la solución?

Identificar y corregir estas deficiencias es el primer paso hacia el éxito final. En la mayoría de los casos, residen en las entradas que componen las diversas representaciones de datos (sensores, entradas manuales, etc.) o en la lógica de procesamiento, o cuando el conjunto de acciones disponibles es inadecuado para la tarea deseada.

Con el tiempo, la experiencia con la IA alcanzará un cierto nivel de sofisticación que los estándares de diseño, desarrollo e implantación reducirán la curva de aprendizaje tanto para el hombre como para la máquina, lo que conducirá a un nivel de éxito mucho mayor para todas las formas de IA.

Demasiado ansiosos por complacer

En un plano más esotérico, la IA adolece de una serie de defectos arraigados que a menudo producen resultados incorrectos o absurdos. En primer lugar, según K. Thor Jensen, de PC Magazine, la mayoría de los modelos están demasiado ansiosos por complacer, es decir, responden a las preguntas simplemente porque uno se las pide. Para Jensen, esto es como un perro que intenta contentar a su amo dejando caer un mapache muerto en el porche.

Otro problema es que, aunque la mayoría de los modelos tienen acceso a cantidades ingentes de datos, la mayor parte de ellos están desactualizados. Los datos recientes suelen ser erróneos o, como mínimo, carecen de contexto. Pero los datos más antiguos tienden a ser menos relevantes, y actualizar los modelos de IA para que ingieran y sopesen adecuadamente los nuevos datos es un proceso largo y difícil.

Cuanto más antiguo es un modelo de IA, menos fiable resulta.

También es problemático el conocido problema de la parcialidad cuando el modelo no está expuesto a datos debidamente examinados, y algunos modelos han demostrado que pueden mentir deliberadamente, sobre todo si no están imbuidos de un algoritmo de retroalimentación para corregir sus interpretaciones erróneas.

Todo esto hace que la IA no sea digna de confianza y no tenga que rendir cuentas de sus acciones, lo que significa que la empresa podría querer aplazar el otorgarle cualquier responsabilidad real hasta que haya demostrado ser más fiable.

Malas expectativas

Según S Mo Jones-Jang, del Departamento de Comunicación del Boston College, y Yong Jin Park, de la Facultad de Comunicación de la Universidad Howard, la impresión de que la IA es una entidad omnisciente y omnipotente también genera un problema de otro tipo. Cuanto más se comporte la IA de forma incoherente con las expectativas humanas, mayor será la frustración y la desconfianza en que pueda resolver problemas con eficacia.

En última instancia, esto conduce a una nueva comprensión de la falibilidad de la IA, que se traduce en una evaluación más precisa de sus puntos fuertes y débiles. Pero cuanto más se tarde en alcanzar este equilibrio, más tiempo les costará a las organizaciones producir un entorno inteligente eficaz.

Parte de este problema radica en las nociones preconcebidas que la gente tiene de la maquinaria en general. Los coches van donde y cuando les decimos que vayan, y las planchas se calientan cuando las encendemos. Por eso, los primeros encuentros con la IA tienden a invocar esta expectativa de la IA como máquina. En realidad, la IA tiene muchas más capacidades cognitivas que las simples máquinas, lo que le permite interpretar los datos de formas muy diversas y, en última instancia, tomar decisiones que pueden no ajustarse al análisis humano.

En este sentido, formar a los humanos para que entiendan a la IA es tan importante como formar a la IA para que entienda a los humanos.

Conclusión

No cabe duda de que la IA va a cambiar nuestra forma de vivir y trabajar, y muy probablemente marcará la diferencia entre el éxito y el fracaso en la emergente economía digital. Pero, al igual que la inteligencia humana, también tiene defectos.

Cuanto antes reconozcamos este hecho, antes podremos darle un uso productivo y, con suerte, evitaremos las consecuencias negativas que tanta angustia están generando en estos momentos.

Temas relacionados

Arthur

Arthur Cole es un periodista independiente de tecnología que ha estado cubriendo desarrollos en tecnología de la información y empresas durante más de 20 años. Contribuye a una amplia variedad de sitios web líderes en tecnología, incluyendo IT Business Edge, Enterprise Networking Planet, Point B and Beyond, y varios servicios de proveedores.