La inteligencia artificial (IA) ha evolucionado hasta el punto de que puede generar texto y voz que parecen reales, lo que la convierte en una valiosa herramienta para el desarrollo de contenidos y la asistencia personal.
Pero, ¿puede utilizarse también para crear propaganda, produciendo declaraciones falsas o engañosas para influir en la opinión pública e incluso alimentar la hostilidad entre las personas?
- Ver más
¿Puede utilizarse la IA para generar propaganda?
No hay restricciones sobre lo que la gente puede crear con herramientas como la IA generativa (GAI), la tecnología que hay detrás de ChatGPT, y otros grandes modelos lingüísticos (LLM) emergentes, desde MidJourney a DALL-E. Estas tecnologías están diseñadas para crear narraciones bien escritas y convincentes sobre cualquier tema que desee el creador.
Idealmente, estos algoritmos se basan en fuentes verificadas para evitar que la desinformación o la desinformación influyan en sus resultados. ChatGPT, por ejemplo, hasta ahora sólo ha ingerido datos de al menos dos años de antigüedad, dado que la información más reciente suele estar sujeta a reinterpretaciones.
Sin embargo, ésta no es una solución perfecta. Si se le dan las indicaciones adecuadas, la IA puede producir información falsa o incluso mentir deliberadamente si eso es lo que cree que quiere el usuario.
¿Existen pruebas de que la IA se utilice hoy en día con fines propagandísticos?
Los organismos de control de los medios de comunicación ya han señalado varios ejemplos de vídeos falsos generados por IA en los últimos años. Una falsificación viral que pretendía mostrar al presidente Biden haciendo comentarios transfóbicos se hizo viral antes de revelarse como un engaño, mientras que una foto trucada de Donald Trump abrazando al Dr. Anthony Fauci, ex director del Instituto Nacional de Alergias y Enfermedades Infecciosas de EE.UU. y eterno blanco de los conservadores estadounidenses, se publicó en el sitio web de la campaña de uno de los rivales políticos de Trump.
Cuando surgen atrocidades en el mundo, como el conflicto palestino-israelí a finales de 2023, es muy sencillo para alguien -cualquiera- crear imágenes angustiosas y emotivas y colocarlas en las redes sociales.
Incluso una vez comprobados los hechos, su tarea de manipular emocionalmente a un público ya está hecha (advertencia: imagen potencialmente angustiosa, aunque falsa, en el enlace).
En el futuro, hay muchas razones para esperar que el texto, la voz, las imágenes y el vídeo generados por la IA aumenten en las redes sociales e incluso en los medios de comunicación tradicionales cada vez que las organizaciones rivales compitan por controlar la narrativa que rodea a los tumultuosos acontecimientos mundiales.
¿Hay formas de saber cuándo se crea o difunde información falsa mediante IA?
Cuando se trata de fotos y vídeos, las alteraciones pueden detectarse con bastante facilidad. Tanto JPEG, el formato de imagen más popular, como el estándar de vídeo MPEG proporcionan una gran cantidad de metadatos que pueden comprobarse en cuanto a secuencias, perfiles y otras condiciones para ver si se ha modificado algo.
Además, las diferencias mínimas en las características de los píxeles pueden revelar si se ha alterado una imagen y cómo.
Irónicamente, la IA puede ser una herramienta valiosa para detectar este tipo de falsificaciones. El análisis mejorado de imágenes puede automatizar lo que de otro modo sería un proceso que llevaría mucho tiempo, y la IA puede cotejar rápidamente una imagen con otras del universo digital para ver si coincide. El problema es que la determinación por parte de un grupo de que una imagen es real o falsa no es la última palabra sobre el asunto. Cuando grupos rivales proclaman que su análisis de IA es el correcto, se deja que el público decida por sí mismo.
¿Se puede utilizar la IA para identificar información falsa?
Una cosa son las imágenes y otra las ideas. Aunque la comprobación de los hechos puede poner al descubierto las mentiras más descaradas, la propaganda más eficaz mezcla mentiras con verdades, con el objetivo no necesariamente de convencer al público de que una afirmación concreta es cierta, sino simplemente de sembrar la duda de que hay más en una historia de lo que comúnmente se entiende.
Esta duda genera miedo y sospechas, que pueden influir en la política pública, las elecciones y las relaciones entre grupos sociales.
Se trata, en efecto, de un juicio de valor, y la IA no tiene, y probablemente nunca tendrá, la capacidad de afirmar definitivamente qué es una idea digna y qué no lo es. Por desgracia, es probable que estemos atrapados en un mundo en el que las falsedades se aceptan como verdades a pesar de las pruebas o la racionalidad.
Los grupos oprimidos se convierten en enemigos a través de este proceso, los impulsores de la violencia se convierten en protectores o incluso en pacificadores, y la historia se sesga a favor de los vencedores.
¿Podemos regular el uso de la IA para evitar su uso indebido con fines propagandísticos?
Están surgiendo normas que regulan el desarrollo y el uso de la IA en todo el mundo, pero no es probable que haya ninguna forma de impedir que cree y perpetúe la propaganda.
Y aunque muchas empresas hablan de una IA ética, los últimos acontecimientos sugieren que los organismos éticos están a punto de ser eliminados en caso de que se produzcan sacrificios de empleados.
De hecho, algunas normas de los gobiernos más autocráticos del mundo podrían afianzar esta capacidad de manipular la opinión pública como elemento central de la IA.
Lo esencial
La propaganda no es una novedad en la sociedad humana, ni mucho menos. Los pergaminos y tablillas de las sociedades antiguas solían exaltar las victorias militares y restar importancia a las derrotas, exaltar a una persona por encima de otra y pregonar los beneficios de la obediencia rutinaria para el bien colectivo.
Tecnologías como la imprenta facilitaron la difusión de puntos de vista particulares y crearon el deseo de librar a la tierra de traidores, brujas y otros perturbadores de la sociedad civil. Los medios de comunicación de masas llevaron esto a un nivel completamente nuevo, como lo hace el mundo digitalmente interconectado de hoy.
Pero todo se reduce al mismo reto: determinar qué es real en medio de una avalancha de opiniones contradictorias. Y no hay tecnología que pueda hacerlo.