La transparencia de la IA, ¿estamos cerca de conseguirla?

Fiabilidad
Resumen

La mayoría de la gente está de acuerdo en que crear transparencia en los modelos de IA es el primer paso para confiar en ellos, pero ¿cómo puede hacerse?

Una de las formas de generar confianza en la inteligencia artificial (IA) es introducir más transparencia en sus procesos de toma de decisiones, pero esto está resultando más difícil de lo que parece. La transparencia es una noción compleja con múltiples capas y facetas, lo que está provocando que muchas empresas la dejen de lado en su afán por crear ventajas competitivas a través de la inteligencia digital.

Dentro de la inteligencia artificial

Todos los modelos de IA se basan en algoritmos, por lo que es posible examinarlos a nivel granular para ver cómo funcionan y por qué hacen lo que hacen. De hecho, es más fácil comprender el funcionamiento interno de la IA que el de la mente humana. Por el momento, sin embargo, las habilidades y conocimientos para penetrar en la psique digital de la IA residen en científicos de datos altamente cualificados, que escasean en estos momentos y cobran salarios elevados.

Recientemente han aparecido en el mercado numerosas plataformas de software que afirman aportar transparencia a la IA. Hasta ahora, sin embargo, ninguna ha proporcionado el avance necesario para calmar los temores sobre la IA desbocada y perjudicial para los mismos procesos que se supone que debe mejorar.

Esto deja a las empresas en una situación difícil. ¿Existen formas, técnicas o no técnicas, de acercar la transparencia a la línea de meta de una IA fiable?

¿Qué es la transparencia?

Uno de los primeros pasos que hay que dar en este camino es definir exactamente qué entendemos por transparencia. El especialista en gestión de riesgos Holistic AI señala que la transparencia es un término general que engloba una serie de conceptos como IA explicable (XAI), interoperabilidad y ética.

En un plano más práctico, sin embargo, la transparencia se basa en tres competencias básicas:

  • Explicabilidad de los componentes técnicos (es decir, el funcionamiento interno del algoritmo);
  • Gobernanza del sistema (funciones como la evaluación y documentación del proceso);
  • Transparencia del impacto (propósitos y capacidades abiertos y fáciles de comunicar a las partes interesadas).

Sin embargo, cada uno de estos ámbitos consta de numerosos componentes. La explicabilidad técnica, por ejemplo, puede ser específica de un modelo o ajena a él, así como de alcance local o mundial. La gobernanza puede incorporar aspectos como la rendición de cuentas, los requisitos normativos, la elaboración de políticas e incluso la responsabilidad jurídica.

La transparencia del impacto puede introducir elementos que van desde la ingestión de datos y el sesgo hasta la gestión de los resultados y la intención.

Diferentes puntos de vista

Evidentemente, hay muchas variables que intervienen en la definición de transparencia, lo que significa que lo más probable es que se aplique de diversas formas en la comunidad empresarial y se interprete desde una amplia gama de puntos de vista. Una investigación reciente de Mozilla sugiere que, aunque la mayoría de las organizaciones desean una IA transparente, existen pocos incentivos para dar los pasos cruciales necesarios para conseguirla. De hecho, cuestiones como el intercambio de datos, incluso a nivel interno, están actuando como impedimentos, y muchas organizaciones siguen en gran medida despreocupadas por las consecuencias imprevistas de sus despliegues de IA.

Mozilla afirma que parte del problema radica en que incluso un mismo modelo planteará diferentes requisitos de transparencia a diferentes personas. Los científicos de datos, arquitectos y otros responsables de la creación del modelo no tienen los mismos objetivos ni los mismos requisitos de información que los responsables de la implantación y la gestión. Los usuarios finales, por su parte, operan desde un punto de vista totalmente diferente, al igual que los reguladores, los auditores y el público en general. Encontrar una solución integral que satisfaga todas estas necesidades es una tarea ardua.

Visibilidad a través de Blockchain

En el fondo, la transparencia de la IA es una función de la recopilación y el análisis de datos, y esos datos deben ser fiables por sí mismos antes de que puedan utilizarse para avalar el modelo que representan. Una forma de conseguirlo es a través de la cadena de bloques, explica John Isige, de Techopedia. Al crear automáticamente una cadena de bloques con cada transacción algorítmica, el modelo proporciona a los científicos de datos, y quizá también a los usuarios legos, toda la información necesaria para determinar con rapidez y precisión cómo y por qué se ha llegado a un resultado concreto.

La naturaleza inmutable de blockchain proporciona esencialmente registros de todas las acciones realizadas en el desarrollo del modelo, proporcionando el marco que permite el análisis finito de las operaciones clave, incluyendo:

  • Los objetivos del modelo
  • Los elementos clave del diseño, como los algoritmos de aprendizaje automático
  • Las reglas y directrices utilizadas para construir el modelo
  • La aplicación y reaplicación de variables fiables, auditadas y verificadas
  • Especificaciones de los datos de entrenamiento y prueba
  • Normas éticas y de procedimiento
  • Evaluaciones de solidez y estabilidad
  • Listas de comprobación de pruebas y validación

Con estos datos en la mano, las organizaciones pueden pasar a la siguiente fase: garantizar que sus modelos se comportan de forma ética y responsable.

Dilema ético

Una vez más, sin embargo, nos encontramos con el problema de la ética de quién aplicamos una vez que hemos abordado el problema de la transparencia. Los líderes empresariales (y los políticos) suelen tener nociones de lo que es ético muy diferentes de las del público en general. Según Elizabeth (Bit) Meehan, candidata al doctorado en Ciencias Políticas por la Universidad George Washington, para convertir un modelo de IA transparente en un modelo ético será necesaria nada menos que la aportación de todo el espectro de instituciones cívicas, gubernamentales y empresariales, todas las cuales deben acordar al menos un marco básico de normas y modos de comportamiento, y todo ello debe llevarse a cabo a escala mundial.

Meehan sostiene que ya existen normas de transparencia en ámbitos como el comercio de valores, el desarrollo, uso y eliminación de sustancias químicas peligrosas y la seguridad automovilística, pero es difícil hacer cumplir la divulgación de información necesaria para garantizar que los malos actores sean sancionados adecuadamente. La disputa en curso sobre TikTok ofrece una buena perspectiva del reto al que nos enfrentamos con la IA: sin comprender plenamente lo que la gente quiere entender sobre cualquier tecnología, establecer códigos y leyes de transparencia será una cuesta difícil de escalar.

Lo esencial

Desde este punto de vista, probablemente lo mejor sería no pensar en la transparencia como un objetivo que hay que alcanzar o una meta que hay que alcanzar, sino como un proceso continuo de perfeccionamiento y comprensión. La IA tiene la capacidad de lograr grandes cosas, pero también puede descarriarse, al igual que los seres humanos.

Profundizar en las matemáticas para entender por qué se comporta de una determinada manera es un comienzo, pero la verdadera transparencia también requerirá una mirada profunda a lo que queremos que la IA haga por nosotros y por qué.

Temas relacionados

Artículos relacionados

Arthur
Technology Writer
Arthur
Editor

Arthur Cole es un periodista independiente de tecnología que ha estado cubriendo desarrollos en tecnología de la información y empresas durante más de 20 años. Contribuye a una amplia variedad de sitios web líderes en tecnología, incluyendo IT Business Edge, Enterprise Networking Planet, Point B and Beyond, y varios servicios de proveedores.