Los deepfakes -un tipo de medios sintéticos que utilizan la inteligencia artificial y el aprendizaje automático para incubar fabricaciones hiperrealistas en vídeos, imágenes, textos y formas de audio– nunca nos han llamado tanto la atención como últimamente.
Probablemente porque carecían del nivel de ubicuidad que tienen ahora, o porque pensábamos que era algo confinado al terreno de juego de las redes sociales, donde vemos a los usuarios manipular sus rostros y voces con todo tipo de filtros y, por tanto, nos importan menos sus implicaciones más allá del ámbito de las redes sociales.
Sea como fuere, el hecho es que los avances en IA han profundizado las raíces y acelerado la propagación de los deepfakes.
Con el tamaño del mercado mundial de software de deepfake valorado en 72,41 millones de dólares en 2023 y que se espera que alcance los 1.200 millones de dólares en 2032, hay muchas posibilidades de que el panorama del deepfake siga creciendo en sofisticación y uso. Y como toda innovación tecnológica, los deepfakes nos ofrecerán una dualidad de uso: el lado positivo y el lado peligroso.
El lado peligroso de los deepfakes
Una rápida búsqueda en Google de «herramientas generadoras de deepfakes de IA» te dejará con la boca abierta y la cara desencajada por la facilidad con la que una persona normal puede acceder a herramientas con las que crear deepfakes difíciles de descifrar en pocos minutos.
Una encuesta reciente muestra que para 2024, alrededor del 95% de los consumidores de EE.UU. habrán sido víctimas de un deepfake.
La Agencia de Seguridad Nacional de EE.UU., la Oficina Federal de Investigación y la Agencia de Ciberseguridad e Infraestructura, en un informe reciente, advirtieron de que existe un peligro significativo derivado del uso indebido del deepfake (PDF), destacando que puede poner en peligro la marca de una organización y puede utilizarse para imitar a figuras clave, como líderes y responsables financieros, para comunicaciones engañosas.
En declaraciones a Techopedia sobre los peligros de los deepfakes, Jigyasa Grover, científica de datos sénior de Faire, señaló que los deepfakes son ahora el principal propagador de desinformación en Internet. Citó casos de pornografía de famosos, llamadas falsas, vídeos manipulados de líderes políticos para inducir conflictos y muchos más.
Bloomberg citó recientemente que algunos vídeos utilizados para retratar a las víctimas de la tragedia en varios idiomas sobre la guerra entre Hamás y los israelíes son deepfakes, y señaló que TikTok está luchando por retirarlos.
En su informe 2023 sobre amenazas de deepfakes, KPMG compartió un incidente en el que el director de una sucursal de Hong Kong fue engañado para que transfiriera 35 millones de dólares de dinero de la empresa a unos estafadores.
El gerente pensó que estaba siguiendo las órdenes de su jefe por teléfono, pero resultó ser una estafa. Los estafadores utilizaron IA para clonar la voz del supervisor, lo que supuso importantes pérdidas económicas para la empresa.
Hay otros casos de deepfakes en Internet dirigidos a figuras públicas, como el vídeo que circuló por las redes sociales a mediados del año pasado mostrando engañosamente a Volodymyr Zelensky, presidente de Ucrania, anunciando una rendición.
Aunque los escenarios anteriores suenen a cadencia apocalíptica, no toda la esperanza está perdida, ya que hay algunos aspectos positivos en el uso de deepfakes que las organizaciones pueden aprovechar.
Los deepfakes como fortaleza para las organizaciones
A pesar de los evidentes peligros que plantean los deepfakes, algunos expertos siguen creyendo que las organizaciones pueden aprovechar eficazmente sus ventajas, al tiempo que mitigan los riesgos asociados.
El uso de tecnologías deepfake abre varias posibilidades, como mejorar los escenarios de formación basados en simulaciones sin implicar a personas reales y la creación de contenidos de mercado, afirma Tim Green, Director de Operaciones de GoTeamUp.
Green explicó:
“Esta tecnología podría permitirnos crear escenarios realistas sin implicar a individuos reales, mejorando la eficacia de nuestros programas de formación. Sin embargo, es crucial establecer directrices éticas para evitar usos indebidos».
Además, señala que las organizaciones pueden aprovechar las deepfakes para comercializar la creación de contenidos, ya que podría proporcionar formas más creativas de captar la atención de nuestro público.
«Pero es esencial mantener la transparencia e informar a los clientes cuando se utiliza este tipo de tecnología para mantener la confianza y la credibilidad», añade.
En una declaración facilitada a Techopedia, Josh Amishave, fundador y director general de BreachSense, detalla que las organizaciones pueden aprovechar el deepfake para sus chatbots y representantes de atención al cliente.
Cuando se utilicen a este nivel, los deepfakes podrán interactuar con los clientes de una forma más convincente y realista, mejorando en última instancia las experiencias del usuario y del cliente.
Amishave también señala el caso de uso educativo de los deepfakes. «Las organizaciones pueden beneficiarse de la tecnología deepfake en áreas como la formación. Pueden utilizarse para crear simulaciones interactivas, recreaciones históricas y experiencias de aprendizaje personalizadas.»
Detectar deepfakes
Dados los avances en IA, detectar deepfakes es una de las cosas más difíciles de hacer. Aunque existen herramientas de detección de deepfakes como Intel Real-Time Deepfake Detector, Sentinel y Weverify, las estadísticas siguen mostrando que los deepfakes representaron la mayoría de las técnicas de fraude basadas en IA registradas por las empresas en 2023.
Esto subraya la incapacidad generalizada para detectar deepfake con gran precisión. En reacción a esto, Heather Lowrie, CISO de la Universidad de Manchester, señala que «las amenazas de los medios sintéticos, como los deepfakes, suponen un reto cada vez mayor y detectarlas sigue siendo un gran desafío para el público».
“Tendremos que desarrollar medidas eficaces para detectar, prevenir y responder a las amenazas de deepfakes y a los ataques a la integridad de la información. Las campañas de educación y concienciación tienen un importante papel que desempeñar en la lucha contra la amenaza de los deepfakes. Podemos esperar que en 2024 se desarrollen nuevos marcos legales y éticos en torno a la tecnología deepfake».
Muy pocas cosas pueden proporcionar el nivel accesible de integridad de la información que necesitamos para combatir eficazmente los deepfakes, afirma James Bore, director general de Bores Group.
«Aunque hay formas de garantizar que la información es auténtica, es mucho más difícil demostrar que la información es falsa, a menos que esos métodos se universalicen. Con su uso y accesibilidad limitados, sólo nos quedan los verificadores de autenticidad por IA, lo que significa que estamos efectivamente en una carrera armamentística informativa entre ambos», explicó.
Consejos de Deepfake para organizaciones
Theo Zafirakos, Profesional de Riesgos Cibernéticos y Seguridad de la Información de Fortra, señala que la creciente prevalencia de los deepfakes exige que la gente intente en la medida de lo posible mantenerse alejada y prestar mucha atención.
A continuación se ofrecen consejos recomendados para ayudar a las organizaciones a detectar deepfakes, según Zafirakos:
- Realiza un análisis visual del contenido que estás viendo. Los deepfakes creados con generadores de imágenes suelen producir dedos «torcidos», manchas y otras rarezas que no se encuentran en las fotos auténticas.
- Fíjate en los ojos. Los vídeos de deepfakes suelen tener patrones de parpadeo irregulares o carecer de reflejos de luz en ambos ojos.
- Amplía la imagen. Busca anomalías digitales, tonos de piel extraños y manchas entre las caras y el fondo.
- Evalúa la calidad del movimiento. Busca movimientos robóticos, falta de movimiento de la lengua y labios desajustados.
- Verifica que el vídeo o el clip de voz proceden de una fuente conocida y de confianza.
- Inicia conversaciones telefónicas con colegas utilizando contraseñas secretas o preguntas especiales. Si el interlocutor no puede complacerte, podría tratarse de un clon de voz.
Lo esencial
Al ritmo que avanza el deepfake, es justo decir que ver ya no es creer. Aunque las tecnologías de detección de deepfake se están desarrollando con cierto éxito, no son tan rápidas como los defraudadores están avanzando con usos tortuosos. Las organizaciones y las personas deben armarse de conocimientos y habilidades para evitar ser víctimas de los dañinos ataques deepfake.
Además, Green destaca la necesidad de desarrollar políticas que guíen el uso de deepfakes. «Los organismos pertinentes, desde el gobierno hasta las organizaciones, deben establecer políticas claras para el uso de deepfakes y garantizar su estricto cumplimiento. Estas políticas servirían de guía para el uso de deepfakes, asegurando que todo el mundo comprende los límites y las consecuencias.»