Fiabilidad

Explorando los principios de Asilomar sobre la seguridad y los beneficios de la IA

Resumen

Los Principios de la IA de Asilomar son un conjunto de directrices para el desarrollo responsable de la IA que pretenden garantizar la seguridad, la protección y los derechos de las personas y la sociedad. Abarcan diversos aspectos de la IA, como la ética de la investigación, la transparencia y la responsabilidad, y son cruciales para generar confianza en la tecnología de la IA. Aunque no son jurídicamente vinculantes, los principios proporcionan un marco útil para el desarrollo ético de la IA, aunque tienen limitaciones en cuanto a la aplicación y especificidad de las políticas.

¿Qué son los Principios de Asilomar?

En la última década, la Inteligencia Artificial (IA) ha logrado avances excepcionales que han llevado a transformar diversos sectores, desde la sanidad a las finanzas, pasando por la fabricación. Aunque podría decirse que este rápido avance de la IA ha dado lugar a la 4ª revolución industrial, también ha traído consigo riesgos potenciales e implicaciones éticas asociadas.

En 2017, se organizó una conferencia en el Asilomar Conference Grounds de California para debatir el impacto negativo de la IA en la sociedad y cómo puede evitarse. En esta conferencia participaron muchos líderes de opinión, empresarios e investigadores de IA de renombre.

El principal resultado de la conferencia fue la elaboración de unas directrices para el desarrollo responsable de la IA que garanticen la seguridad, la protección y los derechos de las personas y la sociedad. Esta directriz es una colección de 23 principios que abarcan muchos aspectos diferentes de la IA, como la ética de la investigación, la transparencia y la responsabilidad. La directriz es ampliamente conocida como los Principios de la IA de Asilomar.

Los principios han sido firmados por más de 5.000 personas, entre ellas 844 investigadores en IA y robótica, así como algunas de las figuras más destacadas en el campo de la IA y la tecnología. Algunos de los signatarios destacados son Elon Musk (cofundador de Tesla), el difunto Stephen Hawking (cosmólogo de renombre), Stuart Russell (catedrático de Informática de la Universidad de California), Ilya Sutskever (cofundador y director de investigación de OpenAI), Demis Hassabis (fundador de Google DeepMind), Yann LeCun (director de investigación de IA de Meta) y Yoshua Bengio (destacado investigador de IA).

¿Por qué son importantes los Principios de IA de Asilomar?

A medida que la IA se integra progresivamente en nuestra sociedad, es crucial garantizar que sirva al bien mayor y no cause daños. Para lograr este objetivo, es necesario regular el desarrollo de la IA que hasta ahora no ha sido guiado. Los Principios de la IA de Asilomar son vitales para garantizar que la IA se desarrolle de forma responsable para evitar su impacto negativo en la sociedad.

Hay muchas formas diferentes en las que la IA podría ser perjudicial para nuestra civilización. Entre ellas, la discriminación o los prejuicios de un sistema de IA contra un sector de la sociedad es algo que ya se ha experimentado en varias ocasiones.

Por ejemplo, se ha descubierto que Rekognition (un sistema de reconocimiento facial de Amazon) tiene un sesgo contra la piel más oscura, que el algoritmo de contratación de Amazon discrimina a las candidatas femeninas y que un algoritmo de sentencia tiene un sesgo racial contra los acusados negros. En un caso extremo, la IA podría utilizarse para actividades maliciosas, como ciberataques o armas autónomas. Para hacer frente a estos retos, los Principios de IA de Asilomar recomiendan que los sistemas de IA se desarrollen y empleen de forma que se reduzca el riesgo de daño involuntario a un ser humano.

Un desarrollo no regulado de la IA también podría tener consecuencias devastadoras para el empleo y la economía. Como la IA es cada vez mejor en la realización de tareas complejas, existe el riesgo de que pueda desplazar a los trabajadores humanos en diversos sectores laborales, provocando la pérdida de puestos de trabajo y trastornos económicos. Para ello, los principios dictan que la IA debe desarrollarse de forma que beneficie a todos los miembros de la sociedad, incluidos los trabajadores. Los principios sugieren además políticas de dispositivos para mitigar los efectos negativos de la IA sobre el empleo y la economía.

Otro aspecto importante de los Principios de la IA de Asilomar es promover la transparencia y la responsabilidad en la investigación y el desarrollo de la IA, lo cual es crucial para generar confianza en esta tecnología. Los sistemas de IA suelen considerarse cajas negras, lo que significa que sus procesos de toma de decisiones son opacos y difíciles de entender. Esta falta de transparencia puede generar desconfianza y escepticismo sobre la IA, especialmente en aplicaciones críticas como la asistencia sanitaria y la justicia penal. Los principios exigen que los sistemas de IA se diseñen de forma transparente y explicable, permitiendo a las personas comprender cómo se toman las decisiones y responsabilizar a los desarrolladores de sus acciones. Al proporcionar directrices claras y promover prácticas éticas, los Principios de la IA de Asilomar ayudan a fomentar una comunidad de desarrollo de IA positiva y responsable.

Principios clave

Algunos de los Principios de la IA de Asilomar son los siguientes:

  • Objetivo de la investigación: El desarrollo de la IA debe ser beneficioso para todos los seres humanos y el medio ambiente.
  • Seguridad: Los sistemas de IA deben diseñarse y funcionar de forma que se minimice el riesgo de daños involuntarios a los seres humanos.
  • Transparencia: El diseño, desarrollo y despliegue de los sistemas de IA deben ser transparentes, y los sistemas de IA deben poder explicar sus decisiones y acciones a los humanos.
  • Privacidad: Los sistemas de IA deben diseñarse para proteger la privacidad personal y la seguridad de los datos.
  • Imparcialidad: Debe garantizarse que la IA se diseñe y funcione de forma justa, sin prejuicios ni discriminación.
  • Control humano: Los humanos deben poder controlar los sistemas de IA y evitar que causen daños.
  • Beneficio compartido: La IA debe beneficiar a la sociedad en su conjunto, no sólo a un pequeño grupo de individuos u organizaciones.
  • Responsabilidad: Los responsables del desarrollo y despliegue de los sistemas de IA deben ser responsables de su impacto en la sociedad.

La lista completa de los Principios de IA de Asilomar está disponible aquí.

Limitaciones de los Principios de IA de Asilomar

Aunque los Principios de la IA de Asilomar proporcionan unas directrices útiles para el uso ético de la IA, también tienen algunas limitaciones que merece la pena tener en cuenta:

  • Aunque muchos destacados investigadores de IA, empresarios, particulares y organizaciones han respaldado estos principios, no son jurídicamente vinculantes. Esto significa que los desarrolladores y las empresas no están obligados por ley a cumplir estos principios.
  • Los principios se centran más en el desarrollo y despliegue de la IA, y menos en el impacto socioeconómico de la IA en la sociedad. Por ejemplo, aunque los principios han destacado los riesgos de desplazamiento de puestos de trabajo con la capacidad avanzada de la IA, no proporcionan ninguna política para evitarlo.
  • Los principios son amplios, lo que los hace susceptibles de interpretación. Aunque esto los hace flexibles para ser aplicados en diversos contextos, la falta de especificidad los hace menos eficaces. Por ejemplo, el principio de “garantizar que la IA esté alineada con los valores humanos” es bastante vago y carece de una descripción precisa de cómo lograr esta alineación.
  • Los principios presuponen que los desarrolladores y usuarios de la IA actuarán de buena fe. Sin embargo, esto puede no ser cierto todo el tiempo, ya que algunos desarrolladores pueden desarrollar IA intencionadamente para realizar actividades dañinas o maliciosas.

Conclusión

En conclusión, los Principios de la IA de Asilomar están diseñados para garantizar que el desarrollo de la IA sea ético y esté en consonancia con los valores humanos. Los principios abordan las preocupaciones sobre el impacto de la IA en el empleo y la economía, promueven la transparencia y la responsabilidad en la investigación y el desarrollo de la IA, y fomentan el uso de la IA en beneficio de todos los seres humanos y del medio ambiente. Sin embargo, los principios no son jurídicamente vinculantes y están abiertos a la interpretación, lo que limita su eficacia.

Temas relacionados

Dr. Tehseen Zia
Profesor titular asociado, Universidad COMSATS de Islamabad (CUI)

El Dr. Tehseen Zia tiene un doctorado y más de 10 años de experiencia investigadora postdoctoral en Inteligencia Artificial (IA). Es profesor titular asociado y dirige la investigación sobre IA en la Universidad Comsats de Islamabad, y coinvestigador principal en el Centro Nacional de Inteligencia Artificial de Pakistán. En el pasado, trabajó como consultor de investigación en el proyecto Dream4cars, financiado por la Unión Europea.