Question

¿Podría la IA causar la extinción humana?

Answer

La inteligencia artificial (IA) representa una nueva generación de software digital por varias razones.

Su poder definitivo aún no se ha probado y es teórico, y es una industria que probablemente seguirá floreciendo en las próximas décadas, trastornando industrias, ocupando puestos de trabajo y, con suerte, liberando a la humanidad de un montón de tareas cotidianas y repetitivas, de forma parecida a como la Era Industrial de la maquinaria inauguró una nueva era.

Pero tiene una capacidad única, a diferencia de la invención de la cinta transportadora: la capacidad de adaptarse y aprender, posiblemente pensando algún día por sí misma.

En este artículo, Techopedia explora si el nacimiento de la IA podría conducir a un resultado que ninguno de nosotros puede desear: el fin de la humanidad, o al menos de nuestro lugar dominante en el planeta.

¿En qué se diferencia la IA de la tecnología informática convencional?

Ante todo, en su estado actual, la IA tiene la capacidad de imitar el habla y el comportamiento humanos en un grado que no se encuentra en las tecnologías tradicionales. Las últimas iteraciones del GPT (Chat Generative Pre-Trained Transformer) han demostrado una notable capacidad para crear texto y habla muy articulados con unas pocas indicaciones sencillas.

Esto le permite agilizar y simplificar la creación de contenidos originales en sitios web y servicios de streaming, pero también permite a la gente presentar obras generadas por GPT como propias. Otras formas de IA generativa, como MidJourney, pueden hacer esto con medios visuales e incluso han ganado premios importantes en concursos de arte, lo que ha provocado un amplio debate sobre qué es el arte y si las máquinas pueden participar realmente en la expresión creativa.

Otra forma en la que la IA sobresale por encima de los entornos informáticos tradicionales es su capacidad de aprendizaje. La mayoría de las versiones de software se desarrollan a lo largo de muchos meses para que funcionen exactamente como exigen los usuarios.

La IA comienza sólo con una programación básica, pero sus algoritmos son capaces de reentrenarse para funcionar mejor a medida que se recuperan y analizan datos de su entorno y de sus propias acciones. Un modelo que sólo tiene un conocimiento rudimentario del juego del ajedrez, o ninguno en absoluto, puede observar cómo se juega, analizar las estrategias que conducen a la victoria y, esencialmente, reescribir su código para convertirse en un gran maestro, todo ello en un tiempo relativamente corto. Esta capacidad también puede aplicarse a otros entornos complejos, como las cadenas de suministro, el desarrollo de productos y servicios, e incluso el análisis de mercado y la planificación empresarial estratégica.

Para apoyar estos dos logros, la IA tiene la capacidad de ingerir y analizar grandes volúmenes de datos, muchos más de los que los humanos pueden llegar a comprender. Y también tiene una capacidad mucho mayor para memorizar y recuperar hechos sin errores.

¿Por qué dicen algunos expertos que esto puede causar la extinción humana?

Uno de los principales peligros de la IA, según sugieren muchas voces destacadas de la comunidad científica, es que la tecnología desplace a los humanos como seres más inteligentes del planeta. Esto podría conducir a una pérdida de control que podría ser muy perjudicial para la raza humana, quizás hasta el punto de la extinción.

Aunque poca gente cree que vaya a haber un malévolo señor digital empeñado en librar al planeta de estas defectuosas, desordenadas y frágiles bolsas de agua (nosotros), hay dos formas en las que la IA podría salir gravemente mal:

  • La tecnología evoluciona hasta un punto en el que puede sustraerse a la interferencia humana y emprender acciones que hagan inhabitable el planeta.
  • Los humanos pueden utilizar la tecnología para crear armas u otras capacidades ofensivas que no puedan controlar, llevando a la destrucción de amigos y enemigos por igual.

En el centro de estas preocupaciones está el hecho de que, al menos de momento, se desconocen los procesos principales que emplean la mayoría de los modelos de IA.

Estos cálculos autoiniciados son tan complejos y tan intrincados que ni siquiera los expertos pueden decir por qué un modelo concreto eligió poner una manzana verde en una imagen de un bol de fruta y no una roja. Esta falta de visibilidad y de IA explicable (XAI) lleva a dudar de por qué el modelo se comporta como lo hace, lo que hace temer que empiece a comportarse mal hasta un grado calamitoso.

¿Cuáles son algunos de los argumentos en contra de este punto de vista?

El principal argumento contra esta línea de razonamiento es que estos temores suelen aplicarse sólo a una forma de IA, todavía en gran medida teórica, llamada inteligencia general artificial (IAG). Se dice que la AGI y su sucesora prevista, la superinteligencia artificial (ASI), imitan los procesos de pensamiento del cerebro humano, formando esencialmente una inteligencia digital pensante y probablemente sensible, como las que aparecen en numerosos libros y películas de ciencia ficción.

Aunque se está avanzando hacia este objetivo, se encuentra en un estado extremadamente rudimentario. Sólo la potencia de cálculo necesaria para simular los 100.000 millones de neuronas del cerebro y los 100 billones de actualizaciones sinápticas por segundo es factible, pero significativa, sobre todo en términos de consumo de energía.

Aún más problemático es mapear toda esta actividad neuronal (que sigue siendo en gran medida un misterio) y luego recrearla en forma digital.

La IA actual se define sobre todo como inteligencia artificial estrecha (ANI), es decir, se limita a conseguir resultados muy concretos. Algunos ejemplos destacados de ANI son los modelos que se están entrenando para manejar vehículos autónomos. Su objetivo es transportar pasajeros de forma segura de un punto a otro sin chocar con nada, no controlar los sistemas de armamento del mundo y destruir el planeta. Se están entrenando modelos más complejos para gestionar los flujos de tráfico de toda una ciudad o incluso de todo un país, pero incluso éstos se componen de múltiples IA estrechas, cada una centrada en su propia área de responsabilidad.

Por supuesto, siempre existe la posibilidad de que algo salga mal, pero con toda probabilidad, el resultado será un atasco de tráfico o quizá una inundación río abajo de una presa, no el fin de la humanidad. E incluso si la IA llega a integrarse en los sistemas de control que supervisan la energía mundial o la producción de alimentos o los arsenales de armas nucleares, no hay ninguna razón por la que los mismos controles que impiden que la inteligencia biológica se desboque no puedan aplicarse a la inteligencia artificial.

¿Hay formas de controlar la IA?

La forma más sencilla de evitar cualquier resultado no deseado de un ordenador es el viejo consejo del departamento de informática: apágalo y vuelve a encenderlo. Esto será mucho más difícil cuando la IA se distribuya a través de huellas digitales globales, pero no es imposible. E incluso los expertos que afirman que podría producirse una extinción global debido a la IA se apresuran a añadir la advertencia, siempre que no hagamos nada para evitarlo ahora.

Pero dado que actualmente estamos tratando con IA estrecha, no con la todopoderosa AGI, es más beneficioso no controlarla en gran medida que tomar medidas drásticas contra ella.

En los modelos estrechos, la idea es decirle al software lo que hay que hacer, no cómo hacerlo. Si los resultados no son satisfactorios, hazle saber qué falla para que lo intente de nuevo, como con cualquier trabajador humano. Y sólo después de que el modelo haya adquirido destreza en una tarea, se le debe confiar otra, igual que a los humanos.

¿Debería preocuparme la IA?

Entonces, ¿es peligrosa la IA? De momento, no.

Los temores a un supercerebro todopoderoso son exagerados, e incluso el impacto de la IA actual en los negocios y la vida en general sigue siendo más una exageración que una realidad. La IA no es más que una tecnología, y la industria tecnológica tiene un largo historial de prometer demasiado y cumplir poco.

Temas relacionados

Arthur
Editor

Arthur Cole es un periodista independiente de tecnología que ha estado cubriendo desarrollos en tecnología de la información y empresas durante más de 20 años. Contribuye a una amplia variedad de sitios web líderes en tecnología, incluyendo IT Business Edge, Enterprise Networking Planet, Point B and Beyond, y varios servicios de proveedores.