¿Recuerdas el escándalo de Cambridge Analytica de 2017? Para los no iniciados, Cambridge Analytica era una empresa que trabajaba con campañas políticas dirigiéndose a grupos de personas con mensajes personalizados para convencerles de que votaran a un candidato o a un partido político.
Acumuló una enorme base de datos de información personal de usuarios de Facebook sin su consentimiento para dirigirse a ellos con campañas personalizadas. Cuando este hecho salió a la luz en 2018, causó un gran revuelo. Una de las principales preocupaciones era que tus datos privados ya no son privados, y tu seguridad y privacidad pueden verse comprometidas.
En 2023, seguimos preocupados por el mismo problema, pero el origen del problema es diferente: la inteligencia artificial (IA). Existe una auténtica preocupación por el hecho de que la IA sea más poderosa y pueda hacer que prescindas sutilmente de tus datos, y podría utilizarse para obtener beneficios políticos.
Cuando los países quieren demasiado poder sobre el pueblo
Desde la perspectiva de un profano, un gobernante siempre querrá aferrarse al poder por las buenas o por las malas, especialmente en los países gobernados por autócratas.
Eso no significa que los llamados países democráticos sean inmunes a estas tendencias. Sólo que las instituciones fuertes y los controles y equilibrios actúan como prevención.
La IA se ha convertido en un aliado, especialmente para los poderes dictatoriales que quieren controlar la vida de sus ciudadanos.
Por ejemplo, este esclarecedor artículo del New York Times muestra hasta dónde ha llegado el gobierno chino para espiar a sus ciudadanos con sofisticada tecnología de vigilancia en la provincia de Xinjiang.
Si añadimos el poder de la IA a la mezcla, hay pruebas suficientes para sugerir que puede tener un enorme poder sobre el poder, incluso en una democracia.
Según Samm Sacks, experto en política tecnológica china y miembro del grupo de reflexión New America: «El gobierno [chino] está utilizando estas tecnologías para construir sistemas de vigilancia y detener a las minorías [en Xinjiang]».
El gobierno chino ha tenido en el punto de mira a los uigures, una comunidad musulmana minoritaria de China, y ha regulado enérgicamente sus vidas más allá de lo que debería hacer un gobierno, lo que supuestamente incluye IA en sus cámaras de vigilancia para realizar encuestas y crear perfiles raciales.
El Papel de la IA Generativa y las falsificaciones profundas
El mundo celebrará muchas elecciones en 2024, y a los expertos les preocupa que los votantes puedan verse influidos por falsas narrativas tejidas en torno a la IA.
Gary Marcus, profesor de la Universidad de Nueva York, dijo en una conferencia de Reuters en NuevaYork: «El mayor riesgo inmediato es la amenaza para la democracia… hay muchas elecciones en todo el mundo en 2024, y la posibilidad de que ninguna de ellas se vea influida por deep fakes y cosas así es casi nula».
Deepfake, un producto de la IA generativa que puede generar imágenes, audio o vídeos falsos, ya está en escena.
En EEUU, la carrera por la nominación del candidato presidencial del Partido Republicano ya ha visto el uso de deep fakes.
En junio de 2023, la sala de guerra del gobernador de Florida, Ron DeSantis, publicó una imagen en la que aparecía Donald Trump abrazando y besando la nariz del Dr. Anthony S. Fauci, ex director del Instituto Nacional de Alergias y Enfermedades Infecciosas.
Más tarde, la campaña de DeSantis admitió que las imágenes eran falsificaciones profundas.
En otro ejemplo del Reino Unido, un deep fake mostraba al primer ministro Rishi Sunak tirándose una pinta de baja calidad con una mujer mirándole burlonamente.
Más tarde se descubrió que la imagen estaba editada, y que la mujer tenía una expresión neutra.
Puede que por el momento sean casos sin importancia, pero «las mentiras se difunden más rápido que la verdad», e incluso la información que sabemos que es falsa puede seguir moldeando nuestra opinión.
Lo esencial
El desarrollo y la evolución de la IA son cosas que no tienen marcha atrás ni deben tenerla.
Pero es una tendencia preocupante que ciertos sectores de gobiernos y países puedan utilizar la IA para cumplir sus estrechos objetivos.
Puede que no sea la solución completa, pero indica que se necesita un marco regulador sólido y completo.