Fiabilidad

La IA debe regularse, pero… ¿cómo? ¿y por quién?

Resumen

La IA es una tecnología compleja, lo que significa que requerirá normativas complejas para regular su uso. Y para cuando se implementen las normativas, la industria y las herramientas estarán probablemente unos cuantos pasos por delante. Bienvenidos a un complejo campo de minas.

La inteligencia artificial (IA) ha causado tal consternación en todo el mundo que las naciones de todo el espectro económico y tecnológico se afanan por averiguar cómo debe regularse.

Nadie, ni siquiera los más destacados impulsores de la tecnología, se opone a la idea de la regulación. Sin embargo, las diferencias de opinión sobre cómo debe hacerse y en qué medida son profundas y variadas.

Algunos abogan por un control estricto de lo que la IA puede tocar, mientras que otros prefieren un enfoque más liberal vinculado a algún tipo de interruptor de apagado (siempre que alguien pueda inventarlo).

El mito generalizado de una inteligencia artificial omnisciente y todopoderosa que se apoderará del mundo y acabará con la humanidad es un elemento clave.

Si los procesos de elaboración de normas se centran en evitar esta posibilidad tan teórica, podrían pasar por alto las muchas formas en que la tecnología actual del mundo real podría producir una serie de resultados menores, pero perjudiciales, en nuestras vidas personales y profesionales.

El enfoque correcto

Un reciente informe de la Brookings Institution destacaba los tres principales problemas a los que se enfrenta la regulación de la IA, extraídos principalmente de las idas y venidas que se han venido produciendo entre los titanes de la industria y los reguladores gubernamentales:

  • Velocidad – El desarrollo de la IA aumenta exponencialmente, mientras que el proceso de regulación es extremadamente lento. Esto hace que sea muy probable que las normas que se contemplan hoy queden obsoletas antes de que puedan aplicarse;
  • Diferenciación – Es probable que la IA sea omnipresente. ¿Deberían las normas que rigen su uso en defensa nacional ser las mismas para los videojuegos? ¿Qué criterios deben utilizarse para cada caso de uso y dónde deben trazarse las líneas reglamentarias para cada modelo, especialmente los que evolucionan con el tiempo?
  • Autorización – ¿A quién debe conferirse autoridad reguladora, y cómo debe supervisarse y comprobarse esa autoridad en caso necesario? ¿Se convertirá el primer conjunto de normas en la norma mundial de facto? ¿Se crearán nuevas agencias, con nuevas burocracias? ¿Tendrán poder para conceder licencias? ¿Qué tipo de evaluación de riesgos realizarán?
    Está claro que hay una gran diferencia entre ver la necesidad de una normativa y crear no sólo la normativa, sino todo el marco para concebirla, examinarla y aplicarla.

Incluso la industria de alta tecnología tiene dificultades para encontrar expertos que desarrollen, formen y gestionen aplicaciones inteligentes, por lo que los organismos reguladores tienen pocas posibilidades de adquirir el tipo de conocimientos internos necesarios para supervisar eficazmente este campo en rápida evolución.

La Ley de Inteligencia Artificial

Actualmente, la Unión Europea parece estar al frente de esta cuestión. La Ley sobre Inteligencia Artificial se encuentra actualmente en el Parlamento Europeo y se espera que se apruebe a finales de año.

La ley establece los conceptos generales de evaluación del potencial de riesgo de cada modelo de IA en relación con la seguridad de los consumidores, la privacidad y el impacto social.

También establece requisitos de transparencia y normas que regulan el uso de datos protegidos por derechos de autor. También crea un registro para aplicaciones clave como la aplicación de la ley, la educación y la gestión y el funcionamiento de infraestructuras críticas.

En Estados Unidos, el Presidente Biden ha propuesto una Carta de Derechos de la IA que establece protecciones contra las aplicaciones inseguras o ineficaces y la discriminación algorítmica, así como normas para garantizar la privacidad de los datos e incluso una cláusula de exclusión voluntaria para quienes deseen evitar por completo la IA.

El anteproyecto no tiene fuerza de ley, pero está redactado en un lenguaje que impregna la Carta de Derechos de la Constitución de Estados Unidos, así como la legislación sobre derechos civiles que ha ido surgiendo con el tiempo; es decir, el derecho a la privacidad, la libertad de expresión, la protección contra la vigilancia ilegal y la igualdad de oportunidades en educación, vivienda y empleo. De este modo, proporciona un punto de partida para cualquier ley o normativa que pueda surgir en el futuro.

Sin embargo, eso podría tardar en llegar. Por el momento, sólo se han presentado en el Senado dos proyectos de ley relacionados con la IA, y sólo uno de ellos impondría normas muy estrictas sobre el uso de la IA por parte de las agencias gubernamentales. El otro se limitaría a promover la competitividad de Estados Unidos en futuros desarrollos de IA. Ambos proyectos se encuentran al principio de lo que suele ser un largo proceso legislativo.

Un mosaico de propuestas

La situación es muy parecida en el resto del mundo, según el bufete internacional Taylor Wessing: muchos proyectos de ley y directrices, pero poca supervisión normativa real.

China es probablemente el país más avanzado en este momento, pero sólo ha conseguido aprobar una ley sobre herramientas algorítmicas de recomendación. Otro proyecto de ley se centraría en la síntesis profunda de los servicios de información basados en Internet, que probablemente se utilizaría para combatir los contenidos falsos. Al mismo tiempo, un conjunto más amplio de medidas administrativas propuestas impondría una “evaluación de seguridad” a los servicios de IA generativa antes de que puedan ponerse a disposición del público.

Por ahora, la economía mundial tendrá que conformarse con un enfoque desigual de la regulación de la IA, ya que no hay mucho impulso para un enfoque unificado. Las Naciones Unidas celebraron su primera reunión sobre el tema hace apenas un mes, con llamamientos para que la organización desempeñe un papel central en el desarrollo de un marco multinacional, pero sin iniciativas políticas claras para hacerlo.

Lo esencial

La IA es una tecnología compleja, lo que significa que requerirá normativas complejas para regular su uso. Esto abre la puerta a una amplia gama de interpretaciones sobre si una norma determinada ayuda o perjudica al interés público, que no siempre es fácil de definir.

Afortunadamente, existen herramientas que ayudan en esta tarea. En el estado norteamericano de Massachusetts, los legisladores utilizaron recientemente ChatGPT para redactar un proyecto de ley que regularía el uso de modelos generativos de IA como ChatGPT.

El proyecto de ley se está tramitando en varios comités cuyos miembros con derecho a voto son todos humanos, por el momento.

Temas relacionados

Arthur
Editor

Arthur Cole es un periodista independiente de tecnología que ha estado cubriendo desarrollos en tecnología de la información y empresas durante más de 20 años. Contribuye a una amplia variedad de sitios web líderes en tecnología, incluyendo IT Business Edge, Enterprise Networking Planet, Point B and Beyond, y varios servicios de proveedores.