La IA está aprendiendo a influir en las personas, y es preocupante

Fiabilidad
Resumen

Si estudiamos los casos en los que una IA pide a un ser humano que acepte una parte desigual del dinero, o en los que una IA persuade a la gente para que hable de detalles extremadamente confidenciales, queda claro que la IA puede utilizar bien el arte de la persuasión.

Investigaciones recientes demuestran que la inteligencia artificial (IA) tiene una notable capacidad para persuadir a los seres humanos para que actúen o piensen de una determinada manera.

Los hallazgos han desencadenado un debate sobre los aspectos éticos y las implicaciones del uso de la IA para influir, con varios estudios que muestran diferentes rasgos de la influencia, como que la IA es más convincente que los humanos, que la gente está más dispuesta a hablar de temas delicados con una IA y que la IA también es capaz de fingir ser un ser humano real.

Teniendo en cuenta la capacidad de la IA para aprender continuamente, aún estamos en los primeros días de este viaje, pero ya ha habido mucho que aprender.

Investigación sobre IA en la Universidad de Illinois y la Escuela de Negocios UTS

El Dr. TaeWoo Kim, de la Escuela de Negocios de la UTS, y su colega Adam Duhachek, de la Universidad de Illinois, han realizado varios estudios sobre la naturaleza atractiva de la IA.

Cuando una persona ofrece repartir dinero de forma desigual con otra, la reacción por defecto y natural es el rechazo y un sentimiento de discriminación por el reparto desigual.

Sin embargo, la misma persona aceptó la misma oferta cuando una IA sustituyó a la persona que ofrecía el dinero.

Según los científicos, esto revela un aspecto peligroso que podría aprovecharse.

Según el Dr. Kim,

“A alguien le dan 100 dólares y te ofrece repartirlos contigo. Ellos se quedan con 80 $ y tú con 20 $. Si rechazas esta oferta, tanto tú como el que te la propone os quedáis sin nada. Ganar 20 dólares es mejor que nada, pero investigaciones previas sugieren que la oferta de 20 dólares es probable que sea rechazada porque la percibimos como injusta.”

Los mismos científicos realizaron otro experimento sobre la comodidad de las personas al hablar de una infección del tracto urinario (ITU). El experimento demostró que las personas se sentían más cómodas respondiendo a preguntas típicamente consideradas embarazosas cuando se las hacía la IA que un médico humano.

El Dr. Kim afirma: “Descubrimos que esto se debe a que la gente no cree que la IA juzgue nuestro comportamiento”.

Otro hallazgo fue que los seres humanos se sentían más influenciados a actuar si la IA les daba el “cómo” de una acción en lugar del “por qué” de esa acción.

“La gente estaba más dispuesta a ponerse protección solar cuando una IA les explicaba cómo aplicársela antes de salir, en lugar de por qué debían usarla”.

Aunque se trata de estudios preliminares, todo apunta a que actuaremos de forma diferente cuando sepamos que estamos interactuando con una máquina, pero ¿y cuando no lo sepamos?

El caso de Google Duplex

Google Duplex, un asistente de voz automatizado capaz de generar un habla similar a la humana, puede realizar llamadas telefónicas a seres humanos incapaces de distinguir entre la voz computerizada y la de un ser humano.

Las llamadas de audio del enlace anterior muestran los niveles de detalle y sofisticación que ha alcanzado la IA. Si usted recibiera una de estas llamadas, se sorprendería al saber después que ha estado hablando con un bot.

Un equipo de investigadores dirigido por Talal Rahwan, profesor asociado de Informática en la NYU de Abu Dhabi, descubrió que “los bots son más eficientes que los humanos en ciertas interacciones hombre-máquina, pero sólo si se les permite ocultar su naturaleza no humana“.

afirma Talal Rahwan:

“El habla de Google Duplex es tan realista que la persona que está al otro lado del teléfono puede no darse cuenta de que está hablando con un bot. ¿Es ético desarrollar un sistema así? ¿Deberíamos prohibir que los bots se hagan pasar por humanos y obligarles a ser transparentes sobre quiénes son?

“Si la respuesta es ‘Sí’, entonces nuestras conclusiones ponen de relieve la necesidad de establecer normas sobre el coste de eficiencia que estamos dispuestos a pagar a cambio de esa transparencia”.

El arte de persuadir de la IA

Si repasamos los casos en los que una IA pide a un ser humano que acepte una parte desigual del dinero o persuade a un ser humano para que hable de detalles extremadamente confidenciales, queda claro que la IA puede utilizar bien el arte de la persuasión.

El hecho de que los seres humanos no se sientan inseguros o temerosos de ser juzgados por una máquina juega a favor de la IA. Los humanos pueden sentirse seguros creyendo que la IA no tiene segundas intenciones.

Pero, ¿se puede abusar de la capacidad de persuasión de la IA? Por ejemplo, un teleoperador o un vendedor con IA puede convencer a un solicitante de préstamo de que acepte una oferta de préstamo a un tipo de interés mucho más alto que los tipos estándar del mercado.

¿Debería ser también una ley que la IA deba identificarse?

Conclusión

Dada la forma en que se está desarrollando la IA y los diversos patrones y tendencias que están surgiendo, era cuestión de tiempo que la IA desarrollara la capacidad de persuadir.

Con el tiempo, seguirá reforzando sus capacidades, y eso significa que puede ser una poderosa herramienta en manos de usuarios malintencionados.

Debe existir un sistema o un marco que permita que florezcan los beneficios potenciales de la IA persuasiva, pero no hasta el punto de que cualquier actor malintencionado pueda utilizar la IA -especialmente a escala- para realizar tareas oscuras o maliciosas.

Temas relacionados

Artículos relacionados

Kaushik Pal
Technology Specialist
Kaushik Pal
Editor

Kaushik es un arquitecto técnico y consultor de software con más de 23 años de experiencia en análisis de software, desarrollo, arquitectura, diseño, pruebas e industria de capacitación. Tiene interés en nuevas tecnologías y áreas de innovación, centrándose en arquitectura web, tecnologías web, Java/J2EE, código abierto, WebRTC, big data y tecnologías semánticas. Ha demostrado su experiencia en análisis de requisitos, diseño e implementación de arquitecturas, preparación de casos de uso técnico y desarrollo de software. Su experiencia ha abarcado diferentes sectores como seguros, banca, aerolíneas, envíos, gestión de documentos y desarrollo de productos, entre otros. Ha trabajado con una amplia…