Consejos de seguridad ahora que la IA clona nuestras voces

Fiabilidad
Resumen

Spotify anuncia la capacidad de utilizar inteligencia artificial para traducir podcasts -utilizando la voz única del podcaster- y los servicios de terceros nos permiten ahora hacernos pasar rápidamente por otra persona. Pero con las prisas por sacar al mercado herramientas interesantes, abrimos una nueva caja de Pandora de problemas fundamentales de confianza y seguridad.

Spotify acaba de anunciar una función de traducción de voz basada en inteligencia artificial que permite a los suscriptores escuchar podcasts de todo el mundo en su lengua materna conservando el estilo de voz original del podcaster. En colaboración con grandes nombres como Dax Shepard y Lex Fridman, el piloto comienza con traducciones al español, francés y alemán. El objetivo es romper las barreras lingüísticas y aumentar la participación de los oyentes en todo el mundo.

Por otra parte, OpenAI también reveló que ChatGPT pronto será capaz de ver, oír y hablar, lo que permitirá a los usuarios mantener conversaciones de voz con ChatGPT.

Pero esto es sólo el principio. ¿Alguna vez has fantaseado con cantar como tu ídolo musical? La innovadora y músico experimental Holly Herndon ha convertido ese sueño en casi una realidad entrenando a un modelo de inteligencia artificial para que reproduzca su inconfundible voz. En una reciente charla TED, presentó Holly+, una herramienta basada en IA que permite a los usuarios cantar con su voz.

En una demostración en directo que captó la atención del público, el artista PHER utilizó dos micrófonos. Uno recogía su voz natural y el otro la transformaba para que sonara como la de Holly. El efecto era el de un cautivador dúo cuando cantaba por ambos micrófonos. Según se mire, puede considerarse un experimento musical innovador o simplemente mímica digital.

Se acabaron los vídeos falsos. El escenario está preparado para que la clonación de voz por IA domine las conversaciones en los próximos meses. Sin embargo, como alguien que adopta una postura vigilante sobre las consecuencias imprevistas de la tecnología, confiar a la gran tecnología la capacidad de duplicar nuestra identidad vocal abre otra caja de Pandora de preocupaciones que parecen seguir a cada nueva solución de IA.

De las bromas virales a los problemas de seguridad

A principios de este año, la influencer Mia Dio saltó a los titulares por un vídeo de TikTok en el que aparecía utilizando tecnología de clonación de voz por IA para pillar a su novio, Billy, siendo infiel. En el vídeo viral, Mia utilizó una voz clonada de Billy para hablar con su amigo y preguntarle por sus actividades de la noche anterior. Al parecer, el amigo confirmó la infidelidad de Billy.

Sin embargo, Mia reveló más tarde que se trataba de una broma montada en la que estaban implicadas todas las partes. El vídeo suscitó conversaciones sobre la facilidad y las implicaciones éticas de la clonación de voz, ya que Mia señaló que utilizó el software ElevenLabs para imitar de forma convincente la voz de Billy por sólo 4 dólares.

El auge de la tecnología de clonación de voz amenaza con socavar uno de los aspectos más fundamentales de la seguridad personal y financiera: la confianza. La euforia que rodea a la comodidad y accesibilidad de la banca por voz se ve empañada por incidentes sonados, como la estafa de 220.000 euros al director ejecutivo de una empresa energética británica.

Más recientemente, el tecnólogo Rob Williams creó en menos de un minuto un clon asombrosamente realista de su propia voz utilizando herramientas gratuitas a las que cualquiera puede acceder en Internet. El clon de voz era tan convincente que incluso engañó a su mujer. Esta grabación es un recordatorio oportuno de que si un ser querido le llama de repente para pedirle que le transfiera dinero, no se fíe sólo de sus oídos: considere la posibilidad de establecer una “palabra de seguridad” para mayor seguridad.

Clonación de voz frente a banca por voz: La lucha por la seguridad en las fintech

Las tecnologías de clonación de voz como VALL-E y ElevenLabs no son meras herramientas para aficionados, sino potentes utilidades capaces de crear réplicas casi perfectas de voces humanas en cuestión de segundos. Las ramificaciones van más allá de los casos individuales de fraude.

Un solo audio deepfake convincente podría iniciar fallos en cascada en un protocolo de seguridad, instigar convulsiones bursátiles o perturbar las relaciones diplomáticas. La facilidad y rapidez con que se imitan las voces aceleran las actividades nefastas, incluidas las campañas de desinformación que pueden tener repercusiones sociales generalizadas.

Aunque los sistemas bancarios basados en la voz están creciendo a un ritmo impresionante, los correspondientes avances en los protocolos de seguridad no han seguido el mismo ritmo. Muchas entidades financieras siguen lidiando con los entresijos de la autenticación multifactor y la biometría de voz, que distan mucho de ser infalibles frente a los sofisticados ataques de clonación de voz por IA.

Esta falta de seguridad expone a los clientes a riesgos financieros y compromete la integridad de los sistemas de voz, lo que podría provocar una crisis de confianza entre los usuarios. Podría decirse que el sector bancario se ha distraído con nuevas tecnologías brillantes y experiencias sin fricciones.

Pero deben atemperar su impulso innovador con un énfasis igualmente sólido en la fortificación de las medidas de seguridad. Mientras navegamos por este panorama prometedor pero peligroso, es crucial que tanto los consumidores como las empresas den prioridad a la vigilancia de la seguridad sobre el deslumbramiento de las funciones de vanguardia.

Consejos de seguridad para evitar la clonación de voz por IA

En el cambiante panorama de la ciberdelincuencia, la clonación de voz por IA destaca como un método cada vez más frecuente para llevar a cabo estafas. Para protegerse, tenga siempre cuidado con las llamadas no solicitadas que piden información personal o financiera. Si se siente presionado por apelaciones emocionales de alto riesgo, es una señal de alarma: cuelgue y póngase en contacto directamente con la persona o entidad utilizando un número de teléfono conocido.

Sea proactivo creando una “contraseña familiar” única que sólo conozcan los miembros de confianza, lo que supone un paso de verificación inmediato en caso de actividad sospechosa. Para mayor precaución, practique haciendo preguntas detalladas que sólo la persona que llama pueda responder. La tecnología por sí sola no es una red de seguridad infalible; mantenerse informado sobre las últimas técnicas de estafa y una buena dosis de escepticismo proporcionarán la mejor defensa en un mundo en el que nuestras voces pueden ser imitadas de forma convincente.

Lo esencial

Mientras la IA sigue acaparando titulares y nuestra imaginación, es crucial recordar que la obsesión de las grandes tecnológicas por moverse rápido y romper moldes no es nueva. Pero lo que ahora es diferente es lo que está en juego. No se trata solo de ajustar los algoritmos que nos alimentan en las redes sociales o alimentan nuestras cámaras de eco en línea; es una cuestión de confianza fundamental que afecta al núcleo de nuestra vida personal y financiera.

Si no somos capaces de gestionar y regular este nuevo mundo, corremos el riesgo de crear una distopía digital en la que los límites entre la confianza y el engaño se difuminen y en la que nos veamos cuestionando no solo la mitad de lo que vemos, sino también cada sonido que oímos.

Temas relacionados

Neil C. Hughes
Senior Technology Writer
Neil C. Hughes
Experto en Tecnología

Neil es un periodista tecnológico independiente con más de dos décadas de experiencia en tecnologías de la información. Reconocido como una de las Voces Principales en tecnología en LinkedIn y destacado por CIO Magazine y ZDNet por sus perspicaces aportes, Neil ha contribuido a publicaciones como INC, TNW, TechHQ y Cybernews, además de ser el anfitrión del popular podcast Tech Talks Daily.