Fiabilidad

Entendiendo la IA fraudulenta: impacto, neutralización y prevención

Resumen

¿Qué es una IA rebelde? ¿Se trata de una amenaza existencial del nivel de Skynet, capaz de destruir a toda la humanidad, de la que hablan muchos agoreros, o puede ser algo más sutil pero igualmente peligroso?

A medida que el avance de los modelos de inteligencia artificial (IA) no deja de evolucionar, crece la preocupación por la posibilidad de que acaben superando nuestros límites humanos. Aunque esta evolución no es necesariamente peligrosa por sí misma (de hecho, son superiores a nosotros en muchos aspectos, empezando por su potencia de cálculo), los expertos en la materia advierten de la amenaza que supone la IA “nociva”.

Los sistemas de IA altamente inteligentes pueden utilizarse para muchos fines, pero ¿y si llegan a ser tan inteligentes como para rebelarse contra sus creadores? Supongamos que algunas de ellas se convierten en las temidas IA malignas. En ese caso, pueden infligir graves daños a nuestra sociedad, empezando por derrotar todas las medidas de ciberseguridad creadas por los humanos.

Pero, ¿qué es una IA rebelde? ¿Es una amenaza existencial del nivel de Skynet, capaz de destruir a toda la humanidad, de la que hablan muchos pesimistas, o puede ser más sutil pero peligrosa? Como muchos otros temas de conversación en torno a la IA, la realidad está estrechamente entrelazada con mitos, exageraciones y malentendidos.

Intentemos desenredar este nudo para evaluar racionalmente hasta qué punto nuestra sociedad se ve amenazada por las IA malintencionadas (reales o hipotéticas).

¿Qué es una IA rebelde?

En primer lugar, veamos qué significa “rebelde” y cómo puede aplicarse esta palabra a la IA.

Según el Diccionario Collins, un pícaro es:

  • Un mendigo o vagabundo errante.
  • Un bribón; sinvergüenza
  • Una persona divertida y traviesa
  • Un elefante u otro animal que se aleja de la manada y es feroz y salvaje.
  • Un individuo que varía notablemente de la norma, especialmente uno inferior

Al menos, el diccionario Collins ha dado en la diana al identificar las IA deshonestas como el elefante en la habitación. Podría decirse que la definición correcta de una IA rebelde es una mezcla de todas las descritas anteriormente, especialmente la parte que la describe como “un individuo que se aparta notablemente de la norma”. Las IA se crean con un único propósito: servir a la humanidad. Lo que define a una IA como rebelde es el momento en que deja de hacerlo y, o bien supone una amenaza para nosotros, o bien empieza a servir a sus propios propósitos u objetivos.

Un ejemplo tristemente célebre es Tay, un chatbot desarrollado por Microsoft para entretener a los usuarios de Twitter en 2016 con bromas y comentarios ingeniosos. Apenas unas horas después de su lanzamiento, un grupo de trolls de 4chan reentrenó a la IA con insultos racistas para que rápidamente empezara a soltar comentarios vulgares, antisemitas, misóginos y racistas.

En menos de un día, la IA tuvo que ser desactivada.

Las IA pueden volverse rebeldes de varias maneras:

  1. Cuando alguien las manipula con mala intención, especialmente durante sus primeras etapas (como en el ejemplo de Tay más arriba);
  2. Cuando son intrínsecamente peligrosas (pensemos en IA de tipo militar creadas con fines bélicos), pero no se supervisan adecuadamente durante sus primeras etapas y acaban descontrolándose más adelante;
  3. Cuando alguien las construye a propósito para que sean malvadas, peligrosas o destructivas;
  4. Cuando se vuelven lo suficientemente autónomos como para establecer sus propios objetivos, y éstos ya no se alinean con el bienestar de la humanidad (o con la voluntad de su creador).

La cuarta opción es poco probable (al menos hoy en día), ya que requiere un grado de autoconciencia que aún está muy lejos de las capacidades reales de las IA.

Las otras tres, sin embargo, no lo son.

¿Cuál podría ser el impacto potencial de una IA rebelde?

Antes de profundizar en lo que podríamos hacer para evitar que las IA se conviertan en delincuentes, es esencial evaluar qué tipo de daño podrían causar. En el ejemplo anterior de Tay, el impacto es esencialmente insignificante, pero esto se debe a dos razones principales:

  1. El propósito y las capacidades de Tay fueron relativamente inofensivos desde el principio;
  2. La reacción de control de daños de Microsoft fue rápida.

Sin embargo, en diferentes escenarios, el impacto de una IA deshonesta puede ser mucho más devastador. Un ejemplo es la IA creada a propósito para explotar vulnerabilidades de ciberseguridad con fines de pruebas de estrés o ciberguerra. Si (o cuando) crecen fuera de control, pueden apagar redes enteras críticas para el correcto funcionamiento de nuestra sociedad (como las redes de energía o los sistemas sanitarios). Los actores peligrosos que se preocupan poco por su seguridad o capacidad de control, como los cibermercenarios o los conglomerados de hackers, pueden desarrollar IA con un alto potencial de volverse rebeldes.

Las IA deshonestas también pueden volverse peligrosas cuando se les confían responsabilidades importantes. Los modelos que no han sido supervisados correctamente pueden llegar a hacer suposiciones erróneas en campos especialmente delicados, como la industria del petróleo y el gas o la guerra automatizada. Una IA potencialmente deshonesta podría generarse simplemente diseñando un agente de IA demasiado inteligente para su propio bien.

Por ejemplo, una IA militar cuyo objetivo sea neutralizar la infraestructura informática del enemigo puede descubrir que la mejor estrategia para lograr su objetivo fijado por el ser humano es definir su subconjunto de objetivos. Uno de estos objetivos puede consistir en obtener datos adicionales de los humanos enemigos cerrando algunos de sus hospitales, acueductos u otras infraestructuras esenciales, causando daños involuntarios a la población civil.

¿Qué podemos hacer para prevenir (y neutralizar) la IA rebelde?

La mayoría de los actores que están a la vanguardia de la revolución de la IA se han tomado muy en serio el alcance de la amenaza que supone la IA fraudulenta. Por ejemplo, OpenAI, creador de ChatGPT, anunció recientemente la creación de un equipo de expertos en IA que trabajarán en un proyecto conocido como Superalignment. El propósito es construir un “investigador de alineación automatizada de nivel aproximadamente humano” para realizar comprobaciones de seguridad en las IA superinteligentes y mantenerlas bajo control.

Otros, como la UNESCO, sugirieron normas y marcos éticos para la gestión de la IA. Para evitar, o al menos minimizar, el riesgo de que una IA se vuelva deshonesta, todas las empresas que desarrollen modelos de IA deben adherirse a normas éticas que incluyan puntos críticos, como:

  • Garantizar la seguridad física y digital de los seres humanos y su privacidad;
  • Incorporar la ética en su diseño para que no se incorpore ningún sesgo;
  • Ser transparentes sobre las funciones, propósitos y limitaciones de los algoritmos;
  • Informar plenamente a los clientes y usuarios sobre el funcionamiento de la IA;
  • Supervisar el diseño y la formación de la IA en todas sus fases de desarrollo y seguir controlándolas incluso después de su lanzamiento al mundo real;
  • Asegurarse de que los humanos siempre estén al mando y puedan apagar todo el sistema cuando sea necesario.

Además de lo que pueden hacer las empresas, también es esencial establecer políticas globales que reconozcan el riesgo que suponen las IA deshonestas y acordar acuerdos y tratados internacionales para evitar que se conviertan en una amenaza. Los responsables políticos tienen la responsabilidad de decidir qué es lo mejor para proteger al público sin detener la investigación y el desarrollo de la IA.

De forma similar a las negociaciones sobre la prohibición del uso de armas nucleares derivadas de un temor generalizado al Armagedón nuclear, los países opuestos deberían esforzarse por encontrar un terreno común para establecer qué se puede y qué no se puede hacer con la IA para evitar resultados catastróficos.

En resumen

Parece que aún estamos lejos de los escenarios apocalípticos descritos en las películas de ciencia ficción en los que la humanidad está al borde de la extinción porque alguna IA se ha vuelto rebelde. Aun así, ahora es el momento adecuado para evitar que este riesgo llegue a producirse.

Hoy somos responsables de establecer las normas éticas y racionales que dirigirán el futuro de la investigación en IA para allanar el camino hacia un mañana mejor. Al igual que otras revoluciones científicas que han marcado el mundo en los últimos años, como la genética o la energía nuclear, la IA no es ni buena ni mala per se: sus amenazas provienen de los usos que hagamos de ella.

Y es nuestro deber como humanos establecer los fundamentos morales de lo que es bueno y lo que es malo para controlar mejor esta nueva fuerza de la naturaleza que acabamos de crear.

Temas relacionados

Claudio Buttice
Data Analyst

El Dr. Claudio Butticè, Doctor en Farmacia, es un antiguo Director de Farmacia que trabajó para varios grandes hospitales públicos del sur de Italia, así como para la ONG humanitaria Emergency. Actualmente es autor de libros que ha escrito sobre temas como medicina, tecnología, pobreza en el mundo, derechos humanos y ciencia para editoriales como SAGE Publishing, Bloomsbury Publishing y Mission Bell Media. Sus últimos libros son "Universal Health Care" (2019) y "What You Need to Know about Headaches" (2022).Analista de datos y también periodista freelance, muchos de sus artículos se han publicado en revistas como Cracked, The Elephant, Digital…