¿Te consideras vigilante en cuanto a la calidad y autenticidad de la información que consumes en Internet?
Tradicionalmente, los primeros resultados de la primera página de Google, a menudo percibidos como los más fiables, no son necesariamente un faro de verdad. Y en su mayor parte, hemos aprendido cómo las marcas mezclan contenidos optimizados para SEO con estrategias de marketing y publicidad.
Sin embargo, el auge de los contenidos generados y traducidos por IA ya está empezando a enturbiar aún más las aguas.
La vieja frase “cree sólo la mitad de lo que ves y nada de lo que oyes” nunca ha sido más adecuada para una era digital en la que la IA puede falsificar la palabra escrita, el audio y el contenido de vídeo generados por humanos.
Puntos clave
- Los contenidos generados y traducidos por IA están dando nueva forma a la información en línea, y un estudio revela que el uso generalizado de la traducción automática está provocando un deterioro de la calidad de los contenidos.
- Con casi el 50% del tráfico de Internet impulsado por bots y la mayoría de nosotros confiando en los resultados de los motores de búsqueda para encontrar nuestras respuestas, la posibilidad de distorsión crece rápidamente.
- A medida que el mundo se enfrenta a un histórico año electoral, 2024, surgen preocupaciones sobre el potencial de la IA para perturbar los procesos democráticos, con incidentes como una llamada falsa (deepfake robocall) haciéndose pasar por el presidente de EE.UU., Joe Biden, como ejemplo.
- La dificultad para identificar el contenido generado por la IA plantea dudas sobre la fiabilidad de las herramientas de detección del plagio basadas en la IA, y subraya la necesidad de enfoques matizados para distinguir entre el contenido de autoría humana y el de IA.
Redefinir la autenticidad en la era de los contenidos traducidos por IA
Un estudio publicado a principios de este mes por investigadores del laboratorio de IA de Amazon Web Services presenta una sorprendente revelación sobre el estado de los contenidos traducidos por máquinas en la web.
La investigación, publicada en el servidor de preimpresión arXiv, se adentra en las profundidades de 6.380 millones de frases, desenterrando una realidad que podría cambiar la forma en que percibimos los contenidos de Internet, sobre todo en las lenguas habladas en África y el Sur Global.
El informe sugiere que la IA se utiliza cada vez más para producir en masa contenidos en inglés de calidad inferior, que se embrollan aún más mediante la traducción automática potenciada por la IA a varios idiomas, lo que conduce a una degradación continua de la información y a que vastas franjas de Internet se llenen de réplicas embrolladas por la IA que se deterioran progresivamente.
Los responsables del estudio afirman en su resumen: “Demostramos que el contenido de la web se traduce a menudo a muchos idiomas, y la baja calidad de estas traducciones multidireccionales indica que probablemente se crearon mediante traducción automática.
“El contenido generado por máquinas no sólo domina las traducciones en las lenguas con menos recursos, sino que también constituye una fracción significativa del contenido web total en esas lenguas.
“También hallamos pruebas de un sesgo de selección en el tipo de contenido traducido a muchas lenguas, coherente con el contenido inglés de baja calidad que se traduce en masa a muchas lenguas de recursos inferiores mediante traducción automática.
“Nuestro trabajo plantea serias dudas sobre el entrenamiento de modelos como los modelos multilingües de grandes lenguas (LLM) en datos monolingües y bilingües raspados de la web”.
A medida que el material traducido por la IA se hace más frecuente, la web se inunda de contenido traducido a varios idiomas, que a menudo pierde precisión y contexto, lo que sugiere que esta afluencia de material traducido por la IA está destinada a exacerbar el problema existente de confianza en línea.
La ilusión digital y la “teoría de la Internet muerta
Los resultados del Informe sobre Bot Malos de Imperva revelan que los bots generan un asombroso 47,4% del tráfico de Internet (PDF). Estas revelaciones insuflan vida a la antaño desechada “teoría de la Internet muerta”, transformándola de conspiración marginal en nuestra vida digital cotidiana.
Hace reflexionar y resulta algo desconcertante darse cuenta de que una parte significativa de nuestro mundo online está dirigida por contenidos generados por IA y bots automatizados, que a menudo interactúan con nosotros sin nuestro conocimiento.
Un ex oficial de operaciones de la CIA, Dan Woods, sugirió que este problema es mucho mayor de lo que muchos piensan y que más del 80% de las cuentas X de Elon Musk podrían ser falsos bots.
En otros lugares, una simple búsqueda en Google de un término común suele revelar la abrumadora cifra de 8.000 millones de resultados, pero nuestro acceso suele limitarse a apenas 15 páginas, que ofrecen unos 150 resultados.
Estas situaciones nos hacen ver Internet no como un yermo infinito de contenidos diversos, sino como un espacio reducido en el que la misma información se repite una y otra vez, como en una sala de espejos.
Esta constatación desafía nuestra percepción de Internet como un campo abierto de exploración infinita, empujándonos a cuestionar la autenticidad y diversidad de los contenidos que encontramos a diario.
Pero lo que hace que esta epifanía sea tan crucial es que miles de millones de personas consumirán este contenido traducido por la IA antes de acudir a las elecciones este año.
2024 es el mayor año electoral de la historia
Mientras el mundo se prepara para el año electoral más importante de la historia, más de 60 países y casi la mitad de la población mundial se preparan para votar en 2024. Sin embargo, el papel que desempeña la IA en la configuración de los resultados del proceso electoral ya se está convirtiendo en una preocupación crucial.
El reciente incidente de una llamada robótica que imitaba la voz del presidente de EE.UU., Joe Biden, y ordenaba a los residentes de New Hampshire que no votaran, sirve de oportuno recordatorio de lo perjudicial que puede ser la IA durante las elecciones.
Este suceso y el libre acceso a la tecnología de IA plantean cuestiones urgentes sobre la defensa de los procesos democráticos.
En una conversación con Francine Lacqua de Bloomberg, el cofundador de Microsoft, Bill Gates, advirtió recientemente de que “los malos serán más productivos” con la IA, destacando la facilidad con la que los actores maliciosos podrían explotar los avances de la IA para influir en las percepciones y comportamientos de los votantes.
¿Cómo salvaguardarán las naciones sus elecciones frente a los malos actores que aprovechan la influencia de la IA generativa, en particular los deepfakes, que podrían distorsionar la narrativa política e influir en la opinión pública?
Con su escala sin precedentes, el panorama electoral mundial de 2024 presenta una prueba extraordinaria de nuestra capacidad para equilibrar la innovación tecnológica con la preservación de los valores democráticos.
¿Quién controla las fichas?
Mientras Silicon Valley continúa con su obsesión por moverse rápido y romper cosas, apenas empezamos a comprender lo difícil que puede ser identificar el contenido generado por IA.
Sam Altman, director general de OpenAI, se hizo eco recientemente de este sentimiento y advirtió a las escuelas y a los responsables políticos sobre la excesiva confianza en las herramientas de detección del plagio basadas en la IA. La sugerencia de que no funcionan encendió aún más la polémica.
Desde entonces, los críticos han calificado muchas de estas soluciones emergentes de aceite de serpiente digital al cuestionar su precisión y sus implicaciones éticas.
También se comparten casos en los que textos clásicos como la Constitución de EE.UU. fueron identificados erróneamente como escritos por IA por estas herramientas, lo que sugiere un fallo fundamental en su diseño y funcionamiento.
Si un comprobador de plagio está entrenado en un estilo de escritura concreto, puede reconocer erróneamente contenido similar escrito por humanos como generado por IA. Este problema también plantea cuestiones profundas sobre la naturaleza de la autenticidad en la escritura.
Si un texto elaborado por un ser humano puede ser identificado erróneamente como generado por una máquina, ¿dónde queda la autenticidad de la creatividad humana? A la inversa, los textos manipulados por herramientas “humanizadoras” para eludir los detectores de IA se consideran originales, lo que difumina los límites entre la autoría humana y la de la IA.
Estos dilemas ponen de relieve los complejos retos que plantea distinguir el contenido generado por la IA de la escritura humana. También subrayan la necesidad de un enfoque más matizado de las herramientas de detección de IA en los entornos académicos y profesionales.
Lo esencial
A medida que los contenidos traducidos o generados por IA y las interacciones con bots se hacen cada vez más habituales, nuestra percepción de la realidad se distorsiona de forma preocupante.
La línea que antes separaba claramente la credibilidad de la mera visibilidad se está difuminando, lo que conduce a una percepción distorsionada de la autenticidad y la verdad.
Esto se puede encontrar en nuestras noticias, a menudo alimentadas por tácticas de desinformación, cámaras de eco, deepfakes, cuentas inventadas y algoritmos plagados de sesgos inherentes.
Las apuestas han subido, y el mundo tiene ahora mucho más de lo que preocuparse que de la autenticidad de un artículo que recomienda las diez mejores freidoras de aire. El adagio de que “el contenido es el rey” es válido, pero el contexto lo es todo.
Al comprender y reconocer el contexto -la fuente, el motivo de la creación y los posibles sesgos- podemos empezar a discernir la verdadera naturaleza de la información que consumimos. Este enfoque vigilante de los contenidos digitales es crucial para preservar la integridad de los datos y el tejido de nuestra realidad percibida.
Referencias
- A Shocking Amount of the Web is Machine Translated (arxiv.org)
- The Bad Bot Report (Imperva, PDF)
- I’m a former CIA cyber-operations officer who studies bot traffic (F5.com)
- All the Elections Around the World in 2024 (Time Magazine)
- Sam Altman, Bill Gates Weigh AI Risks in Big Election Year (Bloomberg)
- OpenAI confirms that AI writing detectors don’t work (ArsTechnica)
- Why AI detectors think the US Constitution was written by AI (ArsTechnica)