A medida que el mundo se acerca a las grandes elecciones de 2024, se cierne una importante preocupación sobre el papel de la inteligencia artificial (IA) en la configuración de sus resultados. Ahora que muchos países, entre ellos potencias como Estados Unidos, India y Gran Bretaña, se preparan para los comicios nacionales, el impacto de la IA y de las herramientas de IA generativa en la integridad de las elecciones se ha convertido en un punto central del discurso mundial.
Los avances de las tecnologías de IA, especialmente en la generación de contenidos digitales convincentes, plantean retos sin precedentes para mantener la inviolabilidad de los procesos democráticos.
Este año supone una prueba crítica para evaluar y mitigar la influencia de la IA en la institución democrática del voto, marcando la pauta de cómo la tecnología se entrelazará con las futuras prácticas electorales.
Puntos clave
- La avanzada capacidad de la IA para crear contenidos digitales convincentes plantea un reto importante para la integridad de las elecciones, ya que la circulación de noticias falsas y deepfakes podría inducir a error a los votantes.
- Las grandes empresas tecnológicas, como Meta, Alphabet, Microsoft y OpenAI, están aplicando medidas como la moderación de contenidos y herramientas de autenticación para combatir el uso indebido de la IA en las elecciones.
- Plataformas como Facebook, Instagram, WhatsApp, TikTok y X están empleando estrategias contra la desinformación, como etiquetar las fuentes de los medios de comunicación, limitar el reenvío de mensajes y prohibir los anuncios políticos.
- Las elecciones de 2024 subrayan la necesidad de un esfuerzo conjunto de gobiernos, empresas tecnológicas y sociedad civil para desarrollar estrategias contra las amenazas a la integridad electoral impulsadas por la IA.
El reto de la IA en las elecciones de 2024
Los avances de la IA están a punto de desempeñar un papel trascendental en los procesos electorales del mundo. El «Informe sobre Riesgos Mundiales 2024» del Foro Económico Mundial destaca el impacto de la desinformación derivada de la IA como uno de los principales riesgos, haciendo hincapié en su potencial para exacerbar la polarización social, incitar a los conflictos y debilitar las economías.
Este peligro subraya la naturaleza crítica del reto que nos ocupa. La capacidad de la IA para crear contenidos altamente realistas, aunque fabricados, representa una amenaza formidable para la integridad de las elecciones. La sutileza y sofisticación con que la IA puede generar y difundir desinformación hacen que a los votantes les resulte cada vez más difícil discernir entre lo que es real y lo que está manipulado.
La dificultad se ve amplificada por la rápida capacidad de difusión de las plataformas digitales, que permite que la información falsa impregne e influya rápidamente en las poblaciones de votantes a gran escala.
En este contexto, el papel de la IA en las elecciones se convierte en un arma de doble filo. Aunque ofrece oportunidades sin precedentes para la participación y la comunicación, también plantea riesgos significativos que deben gestionarse cuidadosamente para mantener la imparcialidad y la credibilidad del proceso electoral.
El posible mal uso de la IA Generativa en las elecciones
Las herramientas de IA Generativa pueden utilizarse para crear noticias falsas muy convincentes, imágenes trucadas o contenidos de vídeo inventados. En el contexto de las elecciones, esta capacidad podría explotarse para crear narrativas falsas sobre candidatos o situaciones políticas. Por ejemplo, los deepfakes generados por IA podrían retratar a figuras políticas en escenarios engañosos, influyendo potencialmente en la opinión pública o causando trastornos electorales.
La preocupación no es sólo la creación de estos contenidos, sino también su posible propagación viral, que desafía los mecanismos tradicionales de comprobación de hechos y verificación de la información.
A medida que se acercan las elecciones, la atención se centra en el desarrollo de estrategias eficaces para mitigar el posible uso indebido de la IA, garantizando que el proceso democrático siga siendo transparente y digno de confianza.
La respuesta de las grandes empresas tecnológicas a la integridad de las elecciones de 2024
Ante los retos que plantea la IA en las elecciones, las principales empresas tecnológicas están aplicando activamente medidas para garantizar la integridad del proceso electoral. OpenAI, Meta, Alphabet y Microsoft, entre otras, han tomado medidas notables para salvaguardar el posible uso indebido de la IA y su impacto en la manipulación de los votantes.
La respuesta de las grandes empresas tecnológicas para preservar la integridad de las elecciones frente a la creciente influencia de la IA implica una mezcla de políticas de moderación de contenidos, herramientas de autenticación y esfuerzos educativos.
Veámoslos más de cerca.
Medidas proactivas de OpenAI
OpenAI, conocida por sus populares productos de IA generativa como ChatGPT y Dall-E, ha adoptado una postura firme contra el mal uso político de sus herramientas:
- Prohibiendo el uso de su IA para campañas políticas, grupos de presión y cualquier actividad que pueda obstaculizar la participación de los votantes.
- Planificando la implantación de herramientas de autenticación para ayudar a los votantes a identificar la fiabilidad de las imágenes generadas por la IA.
Esfuerzos continuados de Meta en la moderación de contenidos
Meta, que engloba plataformas como Facebook e Instagram, está ampliando sus prácticas actuales para combatir la desinformación relacionada con las elecciones mediante:
- Siguiendo etiquetando los medios controlados por el Estado en sus plataformas.
- Bloqueando los anuncios de medios controlados por el Estado dirigidos a usuarios estadounidenses.
- Prohibir nuevos anuncios políticos en la última semana de la campaña electoral estadounidense.
- Exigir a los anunciantes que revelen si se ha utilizado IA o herramientas digitales para crear o alterar el contenido de anuncios políticos, sociales y relacionados con las elecciones.
El enfoque de Alphabet con Google y YouTube
Alphabet, a través de sus filiales Google y YouTube, está aplicando estrategias para proteger la integridad electoral mediante:
- Limitando los tipos de consultas relacionadas con las elecciones que su chatbot Bard de IA puede responder en Google para evitar la difusión de información errónea.
- Obligando en YouTube a los creadores de contenidos a revelar la creación de contenidos sintéticos o alterados, informando así a los espectadores sobre el papel de la IA en la narración y creación de contenidos.
Servicios integrales de seguridad electoral de Microsoft
Microsoft está mejorando la seguridad de las elecciones con varios servicios:
- Ofreciendo herramientas para ayudar a los candidatos a proteger su imagen y autenticar contenidos, protegiéndolos contra la manipulación digital.
- Proporcionando apoyo y asesoramiento a las campañas políticas que trabajan con IA.
- Desarrollando un centro para ayudar a los gobiernos a celebrar elecciones seguras.
- Dar prioridad a la entrega de resultados «fidedignos» en Bing, especialmente para la información relacionada con las elecciones.
Según el consejero delegado de Microsoft, Satya Nadella:
“Si tuviera que resumir el estado de la cuestión, creo que todos estamos hablando de que está claro que, cuando se trata de grandes modelos lingüísticos, deberíamos realizar evaluaciones realmente rigurosas y red teaming y seguridad y guardarraíles antes de lanzar nada nuevo”.
Las plataformas de medios sociales también están a la vanguardia de la lucha contra la desinformación relacionada con las elecciones.
Facebook, Instagram, WhatsApp, TikTok y X (antes conocido como Twitter) están aplicando diversas estrategias para hacer frente a los desafíos.
El enfoque de Meta
Las plataformas de Meta, incluidas Facebook e Instagram, están intensificando sus esfuerzos para etiquetar los medios de comunicación controlados por el Estado y bloquear los anuncios relacionados dirigidos a usuarios estadounidenses, como hemos comentado anteriormente. Esta medida forma parte de una estrategia más amplia para aumentar la transparencia y reducir la difusión de información engañosa durante las elecciones.
Además:
- WhatsApp sigue desempeñando un papel crucial en la difusión de información, y se espera que mantenga medidas como limitar el reenvío de mensajes para frenar la desinformación.
- TikTok, influyente entre los grupos demográficos más jóvenes, mantiene una política contra los anuncios políticos pagados y colabora con organizaciones de comprobación de hechos para limitar la desinformación, reconociendo su papel como fuente de noticias y discurso público.
El enfoque de X
X, que está experimentando cambios significativos bajo la dirección de Elon Musk, tiene un papel fundamental en la comunicación política. La plataforma se está centrando en Community Notes como principal herramienta para combatir la desinformación. Este sistema de comprobación de hechos mediante crowdsourcing permite a los usuarios contribuir a la verificación de la información.
El futuro de la seguridad electoral y la IA
De cara a las elecciones de 2024, la naturaleza cambiante de las amenazas que plantean los avances en la tecnología de la IA sitúa la seguridad electoral en una coyuntura crítica. El futuro de la integridad electoral depende no sólo de la identificación de estas amenazas emergentes, sino también de los esfuerzos colectivos de los gobiernos, las empresas tecnológicas y la sociedad civil para desarrollar contramedidas sólidas.
La capacidad de la IA para generar contenidos falsos convincentes, desde deepfakes a narrativas sintéticas, supone una amenaza real para la exactitud de la información que reciben los votantes. Esta evolución de las amenazas digitales requiere un enfoque dinámico y previsor de las estrategias de seguridad, que haga hincapié en la necesidad de adelantarse a los avances tecnológicos.
Hacer frente a estas amenazas a la integridad electoral impulsadas por la IA requiere un enfoque polifacético que implique la colaboración de diversos sectores. Los gobiernos deben aplicar políticas y normativas que garanticen procesos electorales justos y transparentes, mientras que las empresas tecnológicas deben seguir perfeccionando sus estrategias de moderación de contenidos y desarrollar herramientas para autenticar y verificar la información.
Además, las organizaciones de la sociedad civil desempeñan un papel crucial a la hora de educar a los votantes, promover la alfabetización digital y proporcionar plataformas para la comprobación de hechos y el discurso abierto.
Lo esencial
La eficacia de todos estos esfuerzos depende de un compromiso compartido para salvaguardar los valores democráticos y la integridad de los procesos electorales.
Trabajando juntos, los gobiernos, las empresas tecnológicas y la sociedad civil pueden crear un entorno digital más resistente y seguro, que defienda la inviolabilidad de las elecciones y contrarreste los retos que plantean los avances de la IA.