Gobernanza de la Inteligencia Artificial (IA)

Fiabilidad

¿Qué es la gobernanza de la IA?

La gobernanza de la inteligencia artificial (IA) consiste en establecer un marco jurídico que garantice el desarrollo seguro y responsable de los sistemas de IA.

En el debate sobre la gobernanza de la IA, la sociedad, los reguladores y los líderes del sector buscan implantar controles que guíen el desarrollo de soluciones de IA, desde ChatGPT a otras soluciones basadas en el aprendizaje automático, para mitigar los riesgos sociales, económicos o éticos que podrían perjudicar a la sociedad en su conjunto.

Entre los riesgos asociados a la IA se encuentran las alteraciones sociales y económicas, los prejuicios, la desinformación, la fuga de datos, el robo de propiedad intelectual, el desempleo debido a la automatización o incluso el armamentismo en forma de ciberataques automatizados.

En última instancia, el objetivo final de la gobernanza de la IA es fomentar el desarrollo de una IA segura, fiable y responsable, definiendo casos de uso aceptables, marcos de gestión de riesgos, mecanismos de privacidad, precisión y, cuando sea posible, imparcialidad.

¿Por qué es importante la gobernanza de la IA?

La gobernanza y la regulación de la IA son importantes para comprender y controlar el nivel de riesgo que presentan el desarrollo y la adopción de la IA. Con el tiempo, también ayudará a desarrollar un consenso sobre el nivel de riesgo aceptable para el uso de las tecnologías de aprendizaje automático en la sociedad y la empresa.

Sin embargo, gobernar el desarrollo de la IA es muy difícil porque no sólo no existe una regulación centralizada o un marco de gestión de riesgos al que puedan remitirse los desarrolladores o adoptantes, sino que también es un reto evaluar el riesgo cuando éste cambia en función del contexto en el que se utiliza el sistema.

Si nos fijamos en ChatGPT como ejemplo, las empresas no sólo tienen que reconocer que las alucinaciones pueden propagar sesgos, inexactitudes y desinformación, sino que también tienen que ser conscientes de que las indicaciones de los usuarios pueden considerarse filtradas a OpenAI. También tienen que considerar el impacto que los correos electrónicos de phishing generados por IA tendrán en su ciberseguridad.

En términos más generales, los reguladores, desarrolladores y líderes de la industria tienen que considerar cómo reducir las imprecisiones o la desinformación que presentan los grandes modelos lingüísticos (LLM), ya que esta información podría tener la capacidad de influir en la opinión pública y la política.

Al mismo tiempo, los reguladores intentan encontrar un equilibrio entre la mitigación del riesgo y la no represión de la innovación entre los proveedores de IA más pequeños.

La transparencia es la base de la gobernanza

Antes de que los reguladores y los líderes del sector puedan tener una perspectiva más completa de los riesgos relacionados con la IA, primero necesitan más transparencia sobre los procesos de toma de decisiones de los sistemas automatizados.

Por ejemplo, cuanto mejor entienda el sector cómo una plataforma de IA llega a una decisión tras procesar un conjunto de datos, más fácil será identificar si esa decisión es ética o no y si las actividades de procesamiento del proveedor respetan la privacidad del usuario y cumplen con las normativas de protección de datos como el Reglamento General de Protección de Datos (GDPR).

Cuanto más transparente sea el desarrollo de la IA, mejor se podrán comprender y mitigar los riesgos. Como explicó Brad Smith, vicepresidente y presidente de Microsoft, en una entrada de blog en mayo de 2023: “Cuando en Microsoft adoptamos nuestros seis principios éticos para la IA en 2018, observamos que un principio era la base de todo lo demás: la responsabilidad.”

“Esta es la necesidad fundamental: garantizar que las máquinas sigan estando sujetas a la supervisión efectiva de las personas, y que las personas que diseñan y operan las máquinas sigan siendo responsables ante todos los demás.”

Sin transparencia sobre cómo los sistemas de IA procesan los datos, no hay manera de evaluar si se desarrollan con un esfuerzo concertado para permanecer imparciales o si simplemente se desarrollan con los valores y sesgos de sus creadores.

Marco de gestión de riesgos de la IA del NIST

El 26 de enero de 2023, el Instituto Nacional de Normas y Tecnología de EE.UU. (NIST) publicó su marco de gestión de riesgos de la IA, un conjunto voluntario de recomendaciones y directrices diseñadas para medir y gestionar el riesgo de la IA.

La norma del NIST es uno de los primeros marcos integrales de gestión de riesgos en entrar en el debate sobre la gobernanza de la IA, que busca promover el desarrollo de una IA digna de confianza.

En este marco, el NIST define los riesgos como cualquier cosa que tenga el potencial de amenazar las libertades civiles de las personas, que surja debido a la naturaleza de los propios sistemas de IA o a la forma en que un usuario interactúa con ellos. De manera crucial, el NIST destaca que las organizaciones y los reguladores deben ser conscientes de los diferentes contextos en los que se puede utilizar la IA para comprender plenamente el riesgo.

El NIST también destaca cuatro funciones básicas que las organizaciones pueden utilizar para empezar a controlar los riesgos de la IA:

  • Gobernanza: Construir una cultura de gestión de riesgos en toda la organización para gestionar los riesgos éticos, legales y sociales.
  • Cartografía: Categorizar los sistemas de IA y mapear los riesgos potenciales que podrían afectar a otras organizaciones e individuos.
  • Medición: Utilizar técnicas de evaluación de riesgos cuantitativas, cualitativas e híbridas para evaluar el alcance del riesgo de la IA.
  • Gestión: Identificar continuamente los riesgos de IA y desarrollar una estrategia para mitigar esos riesgos a lo largo del tiempo.

Es importante señalar que el marco del NIST tiene muchas críticas debido al hecho de que es un marco voluntario, por lo que no existe ninguna obligación reglamentaria para que las organizaciones desarrollen la IA de forma responsable en esta etapa.

Obstáculos para el desarrollo fiable de la IA: Caja negra

Una de las principales barreras a la gobernanza de la IA en este momento es el enfoque de desarrollo en caja negra de líderes de la IA como Microsoft, Anthropic y Google. Normalmente, estos proveedores no revelan cómo funcionan sus modelos patentados y toman decisiones en un intento de mantener una ventaja competitiva.

Aunque este enfoque permite a los proveedores de IA proteger su propiedad intelectual, no permite a los usuarios ni a los reguladores conocer el tipo de datos y actividades de procesamiento que utilizan sus soluciones de IA para tomar decisiones o hacer predicciones.

Aunque otros proveedores del sector, como Meta, están tratando de alejarse del desarrollo en caja negra para adoptar un enfoque transparente y de código abierto con LLM como Llama 2, la opacidad de muchos proveedores dificulta la comprensión del nivel de precisión o parcialidad que presentan estas soluciones.

Obtener resultados constructivos de la IA

La gobernanza de la IA es fundamental para guiar el desarrollo de la tecnología en el futuro e implantar barandillas que garanticen que tiene resultados principalmente positivos para la sociedad en su conjunto.

La creación de un marco legal para medir y controlar el riesgo de la IA puede ayudar a los usuarios y a las organizaciones a experimentar libremente con la IA al tiempo que se intenta mitigar cualquier efecto adverso o perturbación.

Temas relacionados

Tim Keary
Technology Specialist
Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.