La inteligencia artificial (IA) tiene la capacidad de llevar el arte del análisis predictivo a nuevos niveles. Su capacidad para analizar cantidades masivas de datos en periodos cortos le permite detectar patrones y relaciones entre conjuntos de datos dispares y, al mismo tiempo, vigilar posibles alteraciones de esos patrones que podrían dar lugar a resultados inesperados.
Esto la hace inestimable para aplicaciones que van desde las ventas y el marketing hasta la planificación empresarial, el desarrollo de productos y la ciberseguridad. Pero, ¿hasta qué punto está demostrando ser precisa la IA? ¿Y hasta qué punto es eficaz para predecir el comportamiento de sistemas y entornos complejos, especialmente cuando esos entornos se verán cada vez más influidos por la propia IA?
La IA predice los golpes
Investigaciones recientes del Centro de Estudios de Neuroeconomía de la Claremont Graduate University de California sugieren que la aplicación de la IA a los modelos estadísticos lineales tradicionales utilizados para predecir si una canción determinada se convertirá en un éxito o no aumenta la tasa de precisión del 69% a un impresionante 97%. De ser cierto, esto ofrece un enorme potencial a la industria musical para centrar su producción, promoción y otros recursos en los títulos más prometedores con la certeza virtual de que generarán beneficios.
Los servicios de streaming, en particular, podrían retener a sus clientes y generar ingresos mucho mayores si poblaran sus nuevas ofertas musicales con temas que tuvieran muchas posibilidades de ser aceptados.
En la actualidad, sin embargo, sólo un 4% de las nuevas canciones se convierten en éxitos. Utilizando la inteligencia artificial para adaptar mejor los intereses de los oyentes a los nuevos lanzamientos, ese porcentaje debería aumentar. Sin embargo, esto podría llevar a la sordidez en la industria musical, porque la mayoría de las recomendaciones se basan en lo que los usuarios ya han seleccionado, no en lo que es nuevo y fresco.
Una perspectiva más saludable
En sanidad, los proveedores están mejorando la precisión de los diagnósticos, los remedios e incluso el descubrimiento de fármacos y el desarrollo de tratamientos poniendo a trabajar grandes modelos lingüísticos (LLM) como ChatGPT para interpretar las notas de médicos, clínicos, investigadores y otros profesionales.
Un nuevo modelo denominado NYUTron, desarrollado en la Facultad de Medicina Grossman de la Universidad de Nueva York, ha demostrado que puede ingerir y analizar estos datos estructurados y no estructurados a pesar de su gran variedad de estilos y formatos.
El modelo ha mostrado una mejora del 15% respecto a las herramientas de predicción estándar para áreas críticas como los reingresos de pacientes, la mortalidad intrahospitalaria y la denegación de seguros. Se espera que esto mejore los resultados sanitarios al reducir el riesgo de infecciones, interacciones farmacológicas y otros peligros potenciales. También puede agilizar el proceso de facturación e incluso reducir el costo global del tratamiento.
Lectura difícil
Sin embargo, no todos los intentos de análisis predictivo basados en IA han tenido éxito. OpenAI, creadora de ChatGPT, retiró recientemente un modelo diseñado para ayudar a detectar texto generado por IA tras lograr una tasa de éxito de sólo el 26%. Mientras tanto, la tasa de falsos positivos, en la que el texto humano se etiquetaba como texto de IA, rondaba el 9 por ciento.
Actualmente, el modelo sigue a disposición del público con la esperanza de que los comentarios de los usuarios ayuden a desarrollar un sistema más fiable. OpenAI también está investigando nuevos métodos de procedencia de datos y pretende desarrollar clasificadores de IA similares para audio y vídeo.
Si tienen éxito, este tipo de programas serían de gran ayuda para educadores, investigadores de fraudes y organizaciones que luchan contra la desinformación tanto en los medios sociales como en los tradicionales. Aunque la tasa de éxito mejore, OpenAI no recomienda que sus modelos se utilicen como herramientas primarias de toma de decisiones: esa responsabilidad debe seguir recayendo en los humanos.
Elegir a los ganadores
Predecir con exactitud el futuro es también la clave para forrarse en bolsa, así que no es de extrañar que haya interés en crear un modelo de IA que pueda hacer precisamente eso.
Uno de los desarrolladores que presume de tener éxito en este campo es VantagePoint Software. La compañía afirma que su nueva plataforma impulsada por IA “predice con precisión los precios futuros y los cambios de tendencia en varios mercados, incluidas las acciones estadounidenses, las acciones canadienses, los ETF, los futuros, Forex y Crypto”.
La firma, que ha estado desarrollando software de comercio desde la década de 1980, dice que esta última versión proporciona un 87,4 por ciento de “precisión probada” al aprovechar el aprendizaje profundo y las redes neuronales para mejorar la predicción, la optimización, el reconocimiento de patrones, la clasificación y otros factores utilizados para detectar oportunidades potenciales, y trampas, en los mercados financieros.
Conclusión
Si la predicción de la IA está mejorando, entonces no hay razón para pensar que no puede beneficiar a la inversión y el trading en la misma medida que el marketing y el desarrollo de productos.
Pero, ¿podría esto plantear un dilema en el futuro? Si todo el mundo acierta casi siempre, reduciendo el riesgo y aumentando la recompensa, ¿existe el peligro de magnificar las consecuencias de los errores de cálculo cuando se producen?
Si todo el mundo empieza a utilizar la IA para comprar las acciones adecuadas o lanzar un nuevo negocio, ¿qué ocurrirá cuando esos modelos empiecen de repente a dar señales de alarma? ¿Será la corrección o la contracción del mercado más severa y de mayor duración que si sólo algunos jugadores estuvieran acertando?
Han pasado casi cien años desde que el mundo sufrió un colapso económico catastrófico, alimentado en parte por la suposición generalizada de que los mercados y las valoraciones subirían para siempre. Sería una pena repetir esa historia simplemente porque un algoritmo diga que esta vez va en serio.