Peligros emergentes: ¿Cómo la IA permite el secuestro virtual?

Fiabilidad
Resumen

Tecnologías de vanguardia como la inteligencia artificial (IA) y el aprendizaje automático (AM) se han desarrollado para elevar la productividad, la eficiencia y la comodidad en nuestra vida cotidiana. Por desgracia, estas mismas tecnologías también han caído en manos de ciberdelincuentes con intenciones maliciosas. El secuestro virtual representa una forma emergente de ciberdelincuencia que explota la IA para manipular los procesos de toma de decisiones y manipular las emociones humanas con fines dañinos.

Discúlpenos mientras nos sumergimos en un alarmismo de futuro cercano a lo Black Mirror, pero por una buena causa.

Tu hija se va de excursión por primera vez y está emocionada cuando la dejas en casa.

Han pasado unas horas, estás de vuelta en casa y suena el teléfono: ¡es tu hija! Un poco sorprendido, contestas.

Al otro lado, una voz ronca y grosera te sorprende: “Tenemos a tu hija”, oyes de fondo sus gritos de auxilio.

La incredulidad se convierte en conmoción, y entonces llega la orden de pagar 50.000 dólares, y tu mente se queda en blanco.

Charlie Brooker puede encargarse del resto, pero termina con la transferencia del dinero, sólo para descubrir que Casey está a salvo y feliz, disfrutando de su viaje.

Espera, ¿qué pasa con la voz de Casey entonces? Sonaba tan real

Bienvenido al mundo en el que la voz de cualquier persona -viva o muerta- puede generarse en cuestión de segundos.

Ya existe para diferentes casos de uso. Tomemos el ejemplo de Podcast.ai, que genera podcasts con inteligencia artificial (IA): el presentador y los invitados son virtuales y pueden ser cualquier persona; ahora mismo están en directo Joe Rogan y Steve Jobs.

Mientras tanto, Spotify está traduciendo sus podcasts más populares a otros idiomas, con las voces del podcaster original intactas.

Según Subbarao Kambhampati, profesor de informática de la Universidad Estatal de Arizona especializado en IA, las capacidades de clonación de voz de la IA han ido mejorando rápidamente.

“Al principio, se necesitaba una mayor cantidad de muestras. Ahora puedes hacerlo con sólo tres segundos de tu voz. Tres segundos. Y con los tres segundos, puede acercarse a cómo suenas exactamente.

“La mayor parte de la clonación de voz captura realmente la inflexión, así como la emoción. Cuanto mayor sea la muestra, mejor será la captura.

Y si el cuento que le contamos al principio del artículo le parece demasiado hipotético para ser exacto, las citas son de una historia en la que una madre de Arizona recibió una llamada de un clon de voz exigiendo un rescate de un millón de dólares por la devolución de su hija… mientras su hija estaba felizmente en clase de baile.

¿Cómo funciona la clonación de voz?

Si ya conoce las falsificaciones de vídeo, piense en el software de clonación de voz de inteligencia artificial como su homólogo auditivo. Con sólo un fragmento de voz grabada, los desarrolladores pueden reunir un conjunto de datos de audio y emplearlo para entrenar un modelo de voz de IA capaz de replicar la voz objetivo.

Estos modelos emulan el proceso de aprendizaje del cerebro y muestran una notable eficacia a la hora de discernir patrones en los datos. Aunque existen varios enfoques para aplicar el aprendizaje profundo a las voces sintéticas, por lo general producen mejoras en la pronunciación de las palabras y en los aspectos matizados del habla, como la velocidad y la entonación, lo que da como resultado voces más reales y con un sonido más humano.

Según Dan Mayo, agente especial del FBI, los estafadores encuentran a sus presas en las redes sociales. De hecho, las redes sociales están llenas de vídeos y audios, y sus propietarios son presas fáciles.

Mayo sugirió: “Tienes que mantener esas cosas bajo llave. El problema es que, si lo tienes público, estás permitiendo que te estafe gente como ésta, porque van a estar buscando perfiles públicos que tengan toda la información posible sobre ti, y cuando se hagan con ella, van a indagar en ti.”

Lo esencial

La rápida mejora de la clonación de voz por IA refleja la vertiginosa velocidad de desarrollo de la IA y plantea el tema de la ética, el secreto y la seguridad.

Sin duda, la IA se encuentra en pleno ataque a nuestra privacidad y seguridad, y aún no hay solución.

Una cosa que podemos hacer es ser más cuidadosos: puede que nos hayamos adentrado suavemente como sonámbulos en un mundo en el que hemos estado exponiendo alegremente nuestra vida privada al mundo a través de las redes sociales.

No podemos hacer mucho para frenar el avance de la inteligencia artificial, pero sí podemos ser más cuidadosos a la hora de compartir nuestra información privada.

Los estafadores siempre encontrarán nuevas formas, pero tenemos que estar alerta.

Temas relacionados

Kaushik Pal
Technology writer
Kaushik Pal
Editor

Kaushik es un arquitecto técnico y consultor de software con más de 23 años de experiencia en análisis de software, desarrollo, arquitectura, diseño, pruebas e industria de capacitación. Tiene interés en nuevas tecnologías y áreas de innovación, centrándose en arquitectura web, tecnologías web, Java/J2EE, código abierto, WebRTC, big data y tecnologías semánticas. Ha demostrado su experiencia en análisis de requisitos, diseño e implementación de arquitecturas, preparación de casos de uso técnico y desarrollo de software. Su experiencia ha abarcado diferentes sectores como seguros, banca, aerolíneas, envíos, gestión de documentos y desarrollo de productos, entre otros. Ha trabajado con una amplia…