Gran parte del debate en torno a la inteligencia artificial (IA) gira actualmente en torno a su potencial amenaza para la humanidad. Pero, ¿y si ocurriera lo contrario? ¿Y si, en lugar de destruir a la humanidad, la IA se convirtiera en su salvadora?
La reciente pandemia puso de manifiesto lo vulnerable que es la sociedad moderna a los peligros del mundo natural, si no en términos de extinción, sí de graves trastornos económicos y sociales.
La recopilación y el análisis eficaces de datos resultaron vitales para hacer frente con rapidez al Covid-19, y hay muchas razones para que tengan aún más éxito la próxima vez que la naturaleza nos ataque (y habrá una próxima vez).
En un reciente artículo de Harvard Business Review, Bhaskar Chakravorti, autor y Decano de Negocios Globales en la Escuela Fletcher de la Universidad de Tufts, destaca las numerosas formas en que la IA se quedó corta durante la pandemia.
Aunque es justo decir que la IA fracasó en su mayor parte en este esfuerzo, la investigación proporciona en realidad una plantilla para las acciones correctivas necesarias para un mayor éxito en el futuro.
Un buen comienzo
En primer lugar, Chakravorti afirma que, aunque la IA fue la primera en identificar un nuevo virus extraño en Wuhan (China), los estudios de seguimiento demostraron que la mayoría de los modelos no lograban anticipar tendencias clave en el pronóstico, el diagnóstico, la respuesta al tratamiento y otros muchos factores.
La mayoría de estos problemas pueden relacionarse con cuatro factores clave:
- Datos malos o incompletos: La mayor parte de la información era difícil de obtener debido a la rapidez con que cambiaban las condiciones y a la incapacidad de recurrir a sistemas e infraestructuras propios.
- Discriminación automatizada: La mayoría de los algoritmos se entrenaron con datos que reflejaban sesgos en la disponibilidad de asistencia sanitaria, desigualdad social y, en algunos casos, desconfianza en el sistema sanitario.
- Errores humanos: Ya sea por una mala introducción de datos o por la falta de incentivos para compartirlos de forma eficaz, los humanos son los responsables últimos de guiar a la IA en la dirección correcta, y los humanos cometen errores.
- Contextos globales complejos: Una intervención adecuada debe sortear múltiples convenciones sociopolíticas, institucionales y culturales, para las que ni siquiera la IA está preparada.
Sin duda, estos problemas no son inherentes a los propios modelos de IA, sino a la forma en que se entrenan y se ponen en práctica.
Resolverlos requerirá sin duda un esfuerzo global que, afortunadamente, ya está empezando a tomar forma, aunque de forma limitada.
Otro problema es la tendencia de las pandemias a escalar rápidamente durante las fases iniciales del brote. Esto suele pillar desprevenidos a los gobiernos y a sus sistemas sanitarios.
La IA también tiene la capacidad de escalar rápidamente, pero debe optimizarse con antelación para algo tan complejo como un patógeno desconocido. El Instituto Nacional de Salud de Estados Unidos está evaluando actualmente el sistema EPIWATCH, desarrollado en Australia, como herramienta de respuesta rápida ante pandemias, tras haber demostrado ya su eficacia contra otros virus de evolución rápida como el ébola.
Al mismo tiempo, el NIH está incorporando inteligencia artificial y de riesgos de código abierto a sus herramientas de detección precoz, como la plataforma de alerta roja automatizada (ARF) y el sistema de información geográfica (GIS).
Analizamos el origen de la fuente
De nuevo, sin embargo, incluso la IA más potente del mundo sólo tiene una utilidad limitada si los datos que recibe son inexactos o no están actualizados, y los canales oficiales de intercambio de información suelen ser lentos y no siempre fiables.
Por eso, los investigadores están empezando a utilizar las redes sociales para obtener información directamente de la fuente: los pacientes.
Un equipo conjunto de la UCLA y la UC-Irvine ha recibido recientemente una subvención de un millón de dólares del programa de Inteligencia Predictiva y Pandemias de la Fundación Nacional de la Ciencia para un proyecto de análisis de todo tipo de redes sociales con el fin de identificar factores de riesgo antes de que sean conocidos por las organizaciones sanitarias.
La tarea implica el análisis rápido de miles de millones de tweets, publicaciones, actualizaciones y otros datos en las principales plataformas de medios sociales que el equipo ha recopilado en una base de datos de búsqueda que se remonta a 2015.
En algunos casos, el proceso consiste en buscar un término sencillo como “tos” y luego acotar los datos resultantes en función de la edad, la fecha, la ubicación geográfica y otras variables.
Por el momento, el equipo está tratando de perfeccionar sus algoritmos para diferenciar entre palabras médicas como “fiebre” e incluso “morir” y sus definiciones de argot que han evolucionado con el tiempo.
Conclusión
Aunque todo esto es impresionante, la advertencia es que no hay garantías cuando se trata de los caprichos de la naturaleza. Hay una razón por la que la mayoría de los virus son anteriores a la aparición de los humanos modernos: no sólo son resistentes, sino también adaptables.
En esencia, lo que pedimos a la IA es que prediga cómo evolucionará una especie en un entorno en constante cambio, y eso es mucho pedir.
Pero una cosa está clara: los humanos por sí solos no están a la altura de esta tarea. Si la IA no se incorpora a esta lucha por su capacidad potencial para dañar a la raza humana (que es en gran medida teórica), algún día nos enfrentaremos a otra pandemia. Y podría ser mucho peor que la última.
Como dijo Marc Andreessen, cofundador y socio general de la empresa de capital riesgo Andreessen Horowitz, en su último artículo, el verdadero riesgo reside en no perseguir el desarrollo de la IA con la máxima fuerza y velocidad. Andreessen añadió