Las ciberamenazas se han vuelto más sutiles, sofisticadas y peligrosas, pero la ciberseguridad tiene un arma: la inteligencia artificial (IA).
Las ciberamenazas modernas adoptan la forma de phishing, ransomware, denegación de servicio (DoS), malware y spyware, y son engañosas y eficaces.
La IA conductual, como su nombre indica, analiza el comportamiento de objetos como un sistema, archivos, correos electrónicos o archivos adjuntos para identificar y marcar o eliminar amenazas.
Por ejemplo, la IA conductual podría identificar y marcar aberraciones en los patrones cuando una cuenta inactiva en una institución financiera se vuelve de repente hiperactiva y recibe múltiples transacciones de alto valor.
Estos sucesos no sólo pueden eludir las soluciones antivirus estándar, sino que también pueden ser peligrosos.
Sin embargo, el papel de los seres humanos en la eliminación de las amenazas será igualmente importante. De hecho, en muchos casos, la IA conductual no puede tener éxito sin la cooperación de los seres humanos.
¿Qué es la IA conductual?
Un sistema informático tiene varias entidades, como el usuario, dispositivos de punto final como teléfonos inteligentes u ordenadores portátiles, servicios en la nube, archivos y datos, y tráfico de red, por nombrar algunos.
Todas las entidades pueden verse comprometidas en diferentes momentos y poner el sistema informático o la institución en grave peligro.
Un ejemplo típico que muchos de nosotros podemos haber experimentado es Google bloqueando el acceso a un sitio web porque cree que está recibiendo un tráfico inusual. Aunque Google puede confundir a menudo una situación normal con una anormal, este es un ejemplo de sus sistemas de IA en funcionamiento.
Sus sistemas de IA analizan el tráfico y marcan cualquier evento que consideren una anomalía o aberración. Se trata de la IA conductual, que utiliza técnicas de IA para analizar y comprender el comportamiento de varias entidades en un sistema informático.
La IA conductual realiza modelos de comportamiento, detección de anomalías, análisis del comportamiento de usuarios y entidades, detección de amenazas y suplantación de identidad, respuestas automáticas y mucho más: una forma sofisticada de contrarrestar las ciberamenazas.
Al igual que los seres humanos pueden identificar aberraciones o cambios en el comportamiento de las personas que conocen, la IA conductual puede identificar aberraciones de la línea de base en el comportamiento de las entidades en el sistema informático.
El papel de la IA conductual en la lucha contra las amenazas
La IA conductual es diferente del enfoque estándar de ciberseguridad a la hora de gestionar amenazas porque, mientras que el enfoque tradicional puede gestionar amenazas conocidas, la IA conductual puede gestionar amenazas conocidas y desconocidas en tiempo real.
La IA conductual se entrena en ciberamenazas con grandes volúmenes de flujos de datos que le permiten aprender continuamente sobre las formas cambiantes de las amenazas.
Así, cuando identifica una amenaza, da la alarma o la elimina mediante un sistema automatizado.
La eliminación automatizada de amenazas y una identificación más rápida marcan otra diferencia entre el enfoque tradicional y el enfoque de IA conductual.
El enfoque tradicional implica la identificación de la amenaza y la activación de una alarma, tras lo cual la amenaza se elimina manualmente. Se trata de un proceso que lleva mucho tiempo.
El papel de la IA conductual puede resumirse de la siguiente manera:
- Identificar malware en datos etiquetados y no etiquetados. Mientras que los datos etiquetados proporcionan una base para identificar datos sospechosos, los datos no etiquetados no tienen una base, y la IA de comportamiento aprende sobre ellos sobre la marcha.
- Detección de intentos de phishing. Los trucos de phishing han ido evolucionando y haciéndose más sutiles. Por ejemplo, los correos electrónicos con contenido malicioso, como enlaces o archivos adjuntos, parecen casi idénticos a los auténticos. La IA puede identificar incluso este tipo de correos porque ha estado aprendiendo sobre este tipo de contenido.
- Garantizar la seguridad de la red. Los sistemas informáticos reciben grandes volúmenes de tráfico, y las amenazas sofisticadas pueden camuflarse bajo la apariencia de tráfico normal. Sin embargo, la IA puede identificar tales amenazas porque ha estado aprendiendo constantemente sobre ellas.
Estudio de caso: La IA en acción
Una empresa de telecomunicaciones de la lista Fortune 500 introdujo la IA para clasificar los datos cifrados que fluyen hacia sus categorías de aplicaciones. Los principales problemas a los que se enfrentaba la empresa eran:
- El etiquetado manual de los datos de tráfico resultaba demasiado lento y requería recursos muy valiosos.
- El tráfico de red se analizaba basándose en un conjunto estático de reglas, lo que hacía que el sistema fuera vulnerable a datos de tráfico sospechosos que no coincidían con las reglas.
- El sistema existente tenía dificultades para gestionar distribuciones de datos cambiantes, como la respuesta a alarmas o tickets de problemas de red.
- La empresa necesitaba múltiples herramientas para proporcionar seguridad a su sistema informático, lo que resultaba caro y difícil de gestionar.
La IA cambió significativamente los resultados tras la implantación.
- Antes de la IA, el sistema podía producir un subconjunto inicial de 2.000 ejemplos etiquetados con la verdad sobre el terreno, pero después de la IA, produjo 198.000 ejemplos adicionales etiquetados mediante programación.
- El modelo de IA fue un 26,2% más eficiente que su predecesor.
- La IA fue un 77,3% más precisa que el enfoque basado en reglas del sistema anterior desplegado por la empresa.
Limitaciones
La IA ha redefinido la gestión de la ciberseguridad y muchos estudios de casos han demostrado su utilidad. Sin embargo, la IA no es una solución infalible, al menos de momento.
Tiene limitaciones que plantean dudas sobre su eficacia:
- La IA es una tecnología en evolución y aún tiene dificultades para ofrecer soluciones precisas a las ciberamenazas. Aunque la IA se está desplegando para contrarrestar las ciberamenazas, se plantean dudas sobre sus resultados y su fiabilidad a la hora de contrarrestarlas.
- La IA aún no es lo suficientemente robusta como para gestionar la serie de acciones complejas necesarias para recuperarse de los ataques. Una de las razones es la falta de precisión y exactitud que no la hace lo suficientemente fiable para los ingenieros.
- Los ciberatacantes también utilizan la IA, lo que hace que las amenazas sean más sofisticadas y potentes.
Conclusión
Debemos recordar que la IA sigue siendo una tecnología en evolución.
Las limitaciones son reales, y las organizaciones se enfrentan a la cuestión de hasta qué punto deben confiar en la IA. Sin embargo, se han demostrado las ventajas de utilizar la IA como parte de un arsenal de tácticas de ciberseguridad.
La mejor manera de avanzar es no dejarse llevar por las exageraciones, evaluar objetivamente las capacidades de la IA frente a los sistemas tradicionales y encontrar una combinación de ambos que se adapte a usted o a su organización.