El chatbot de la CIA demuestra que los copilotos de IA son Google

Fiabilidad
Resumen

A principios de esta semana, la Agencia Central de Inteligencia de Estados Unidos (CIA) confirmó que estaba en proceso de desarrollar su propio chatbot de IA generativa al estilo de ChatGPT. El proyecto pone de relieve que los copilotos de IA generativa van camino de convertirse en herramientas fundamentales para las organizaciones basadas en datos.

A principios de esta semana, la Agencia Central de Inteligencia de Estados Unidos (CIA) confirmó que estaba desarrollando su propio chatbot de IA generativa al estilo de ChatGPT.

El asistente virtual, desarrollado por la Unidad Empresarial de Código Abierto de la CIA, estará diseñado para ayudar a sus analistas de inteligencia a escanear información de código abierto e información pública para agilizar sus investigaciones. La idea es equipar a los investigadores humanos para interpretar grandes conjuntos de datos a gran velocidad.

El Director de la unidad de IA de la CIA, Randy Nixon, declaró a Bloomberg: “Hemos pasado de los periódicos y la radio a los periódicos y la televisión, a los periódicos y la televisión por cable, a Internet básico, a los macrodatos, y así sucesivamente.

“Tenemos que encontrar agujas en el campo de las agujas. La escala de lo que recogemos y de cuánto recogemos ha crecido astronómicamente en los últimos 80 años o más. Tanto, que puede resultar desalentador y a veces inutilizable para nuestros consumidores”.

Los copilotos de IA se están generalizando

El anuncio se produce en un momento en el que China está ampliando sus capacidades de vigilancia basadas en la IA. Reuters ha descubierto que docenas de empresas chinas han empezado a utilizar la IA para clasificar los datos recopilados sobre los residentes.

Desde este punto de vista, el desarrollo de un asistente virtual inspirado en ChatGPT es un intento de garantizar que China no tenga ventaja en la vigilancia automatizada.

Sin embargo, en términos más generales, la decisión de la CIA de experimentar con la IA generativa demuestra cómo la adopción de grandes modelos lingüísticos (LLM) se está acelerando tanto en el sector privado como en el público.

Al igual que los motores de búsqueda se convirtieron en una herramienta omnipresente para los profesionales que procesan datos, los “copilotos” de IA generativa están surgiendo como una herramienta fundamental para dar a los usuarios humanos la capacidad de resumir e interpretar vastos conjuntos de datos y ayudar a identificar patrones recurrentes.

Por ejemplo, en el sector empresarial, OpenAI informó de que el 80% de las empresas de Fortune 500 están experimentando con ChatGPT. Aunque no hay dos organizaciones iguales, uno de los principales retos que aborda la IA generativa es la necesidad de “encontrar agujas en el campo de las agujas”, algo cada vez más difícil.

Dar sentido a los datos

Durante años, las empresas han luchado por procesar los grandes volúmenes de datos que recopilan. Algunas estimaciones sugieren que los datos no estructurados representan el 80-90% de los datos de la empresa. Todos estos datos deben ser comprendidos por un usuario humano o una parte interesada en algún nivel.

La IA generativa ayuda a los usuarios humanos a dar sentido a las señales de datos aislados proporcionándoles descripciones en lenguaje natural de lo que significa la actividad.

Dos proveedores han ilustrado a la perfección este enfoque: Google Sec-PaLM utiliza LLM para indicar al usuario si un script es malicioso o no, y Microsoft Security Copilot aprovecha esta tecnología para resumir las señales de amenaza tomadas de toda la red de una empresa.

En el caso de la CIA, los LLM pueden procesar datos tomados de fuentes dispares en la web abierta. Ayudan a los investigadores a contextualizar la información aislada y a detectar patrones a través de una experiencia de copiloto. Los usuarios pueden hacer preguntas al chatbot en lenguaje natural y recibir respuestas coherentes que les ayuden en sus investigaciones.

Problemas en el camino por recorrer

Aunque la IA generativa ofrece un gran potencial para ayudar a las empresas y organizaciones del sector público a procesar grandes conjuntos de datos, también abre la puerta a algunos problemas éticos graves.

Uno de los principales es la cuestión de si la información personal identificable (IPI ) de un usuario se extraerá de la web pública.

Al mismo tiempo, si se trata de un modelo de IA de caja negra que no se revela al público, ¿qué salvaguardias existen para garantizar que la CIA utiliza la IA de forma ética y responsable? ¿Existen medidas para impedir la recogida o el tratamiento de datos para los que no está autorizada, un aspecto por el que la UE ha criticado a la NSA en el pasado?

Del mismo modo, la CIA no puede permitirse pasar por alto algunos de los importantes defectos que presentan los modelos lingüísticos modernos, como su capacidad para alucinar o inventarse hechos y cifras.

Reconocer al “amigo borracho loco”

Afortunadamente, parece que la CIA está reconociendo estas limitaciones como parte de su hoja de ruta. Como explicó el CTO de la CIA, Nand Mulchandani, en la Cumbre de Ciberseguridad Billington, mientras que la IA generativa es una herramienta útil para detectar patrones en grandes conjuntos de datos, los usuarios pueden ser “desafiados” en “áreas donde requiere precisión.”

Aunque Mulchandani sugirió que los analistas de inteligencia traten a los chatbots como “al amigo borracho loco” y escudriñen sus resultados, la tendencia de estas herramientas a difundir información errónea sigue presentando graves riesgos para las organizaciones de vigilancia.

Permitir la difusión de hechos alucinados podría tener graves repercusiones legales y de reputación para las empresas.

En un contexto de seguridad nacional, el margen de error es mucho más estrecho, y un solo escenario en el que un analista de inteligencia no compruebe los hechos antes de actuar sobre la base de información falsa podría tener un impacto devastador en el mundo real.

Temas relacionados

Artículos relacionados

Tim Keary
Technology Specialist
Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.