El Gobierno chino establece normas sobre IA generativa

Fiabilidad
Resumen

El gobierno chino está estableciendo algunos límites legales sobre cómo debe y puede utilizarse la IA generativa. ¿Qué están haciendo los demás actores mundiales para contener los riesgos del crecimiento incontrolado de la IA?

El gobierno chino está asumiendo un papel de liderazgo a la hora de establecer algunos límites sobre cómo debe y puede utilizarse la tecnología de inteligencia artificial (IA). Pekín ha definido una serie de normas provisionales que entrarán en vigor el 15 de agosto de 2023. Estas normas se aplicarán a todos los servicios que utilicen IA generativa para diversos tipos de medios, como imágenes, texto, audio y vídeo. Es obligatorio que todos los contenidos accesibles al público chino cumplan estas normas, y se aplicará un régimen de licencias para todos los proveedores.

Las autoridades reguladoras confirmaron que su objetivo es “equilibrar el desarrollo y la seguridad” sin restringir demasiado la innovación, ya que su intención sigue siendo “fomentar el desarrollo innovador de la IA generativa”.

¿Qué propician realmente estas normas? ¿Y cómo reaccionarán otros países ante la avalancha de cambios aparentemente imparable que está suponiendo la IA?

Las normas establecidas por China

Las normas descritas como “Medidas provisionales para la gestión de los servicios de inteligencia artificial generativa” tienen los siguientes objetivos:

  • Normalizar la aplicación de la IA
  • Promover un “desarrollo saludable” de esta tecnología
  • Fomentar la innovación pero con la debida prudencia
  • Salvaguardar la seguridad nacional
  • Proteger los intereses y derechos de los ciudadanos chinos
  • Respetar la moral y la ética sociales
  • Prevenir la discriminación, el odio étnico, la violencia, la obscenidad y la información falsa.
  • Respetar los valores fundamentales del socialismo.

Todos los contenidos generados por la IA deben cumplir estrictamente estas normas, que incluyen la prohibición de promover el terrorismo, el racismo, la pornografía o cualquier cosa que pueda suponer una amenaza para la seguridad nacional, incitar a la subversión o socavar la estabilidad nacional. Para garantizar su cumplimiento, cualquier algoritmo o servicio con potencial para influir en la opinión pública debe registrarse ante las autoridades gubernamentales. Posteriormente, se expedirá una licencia administrativa de acuerdo con la legislación china.

Los proveedores de servicios tienen la responsabilidad de identificar y detener rápidamente cualquier contenido ilegal generado por sus algoritmos. Además, están obligados a informar de tales incidentes a las autoridades respectivas. Además, los proveedores deben implantar sistemas en contra de la adicción específicamente diseñados para usuarios menores de edad, similares a los empleados para evitar que los menores gasten excesivamente tiempo y dinero en videojuegos. Por el momento, aún no se han determinado los términos punitivos para las posibles infracciones, ya que en los últimos días se han eliminado del borrador actual las multas previas.

Al parecer, todas estas restricciones se establecen sólo para los servicios que puedan influir en la opinión pública, mientras que los utilizados con fines corporativos o industriales internos no están cubiertos por la normativa. El Estado pretende impulsar la innovación aportada por la IA generativa hacia una dirección saludable y positiva en “todas las industrias y campos” y apoya el desarrollo de todo el software, herramientas, fuentes de datos y hardware siempre que sean “seguros y fiables”.

Por último, China anima a la cooperación internacional en la formulación de normas relacionadas con la IA generativa, siempre que se produzca “en pie de igualdad y beneficio mutuo.”

¿Restringir la IA es solo razonable o directamente necesario?

La explosiva expansión de los usos de la IA generativa está tomando al mundo entero por asalto, y muchos expertos en la materia piden a los reguladores que se pronuncien para definir algunos límites. Algunos han llegado a expresar su preocupación por el riesgo potencial de extinción humana si no se limita el uso (y abuso) de la IA. Aunque estos escenarios de Skynet pueden ser un poco exagerados, no sería sensato pasar por alto las graves amenazas que plantea el crecimiento descontrolado de la IA para nuestra sociedad.

Por un lado, la integración de la IA generativa en los servicios sanitarios encierra la promesa de salvar innumerables vidas. Sin embargo, también preocupa su posible contribución a la desigualdad.

Un ejemplo digno de mención es el supuesto uso poco ético de la IA durante la reciente huelga de actores de Hollywood. Aunque todavía no está confirmado, algunas fuentes de las negociaciones SAG-AFTRA sugirieron que los estudios podrían explotar la IA para replicar las características de los actores extras y evitar compensarles en futuros rodajes.

Sin embargo, eso no es todo. El uso no regulado de la IA generativa conlleva otros riesgos. Cuando el contenido generado es inapropiado, inexacto o inaccesible, el riesgo de daño podría ser importante. Por ejemplo, proporcionar a un médico un plan de terapia médica para un paciente o a un operador de una plataforma petrolífera instrucciones para el mantenimiento de maquinaria pesada utilizando información errónea generada por IA podría tener graves consecuencias.

Para evitar estos peligros, es crucial desplegar estos algoritmos con directrices claras y exhaustivas para minimizar las consecuencias imprevistas derivadas de IA generativas mal diseñadas.

¿Cuál es la posición sobre la regulación de la IA de otros grandes actores mundiales?

Aunque la normativa china sobre IA generativa es muy estricta y está bien definida, no es el primer actor mundial importante que intenta abordar esta cuestión.

En junio de 2023, el Parlamento Europeo dio un importante paso adelante en la conciliación de la triple Ley de Inteligencia Artificial de la UE (“Ley de IA”). Este paso es crucial para negociar un compromiso entre las tres ramas de la Unión Europea: el Parlamento Europeo, el Consejo y la Comisión, con el objetivo último de redactar una Ley definitiva.

Según su “enfoque de la IA basado en el riesgo”, el Parlamento Europeo prohíbe explícitamente cualquier IA que manipule “subliminalmente o a propósito” a las personas, explote sus vulnerabilidades o se utilice para categorizar a los individuos en función de su comportamiento, estatus o características personales. Además, se exigirá a las IA generativas que “cumplan requisitos adicionales de transparencia”, entre ellos el etiquetado explícito de los contenidos como generados por IA y el establecimiento de normas de diseño para evitar la generación de contenidos ilegales.

Estas medidas pretenden fomentar el uso responsable y ético de la IA generativa en la Unión Europea.

Al otro lado del Océano Atlántico, el gobierno de Estados Unidos también ha tomado medidas para establecer límites a la proliferación no regulada de IA. En enero de 2023, el Instituto Nacional de Estándares y Tecnología (NIST) publicó el “Marco de Gestión de Riesgos de la Inteligencia Artificial”. Aunque el cumplimiento de este marco es voluntario y no obligatorio, su objetivo principal es “mejorar la capacidad de incorporar consideraciones de fiabilidad en el diseño, desarrollo, uso y evaluación de productos, servicios y sistemas de IA”.

Dentro del marco, se reconocen los riesgos inherentes a la adopción incontrolada de la IA, especialmente el hecho de que las tecnologías de IA podrían “exacerbar resultados injustos o indeseables para individuos y comunidades”. La propuesta del NIST ofrece un conjunto de directrices prácticas para que todos los actores de la IA “gobiernen, mapeen, midan y gestionen” el desarrollo y despliegue de modelos de IA éticos y sostenibles.

Los responsables políticos se enfrentan al reto de seguir el ritmo de la rápida evolución de la IA generativa. Al igual que una reacción nuclear imparable, desde la presentación al público de los primeros modelos procesables hace unos meses, hemos alcanzado un punto de inflexión en el que los cambios se producen en cuestión de semanas. Los reglamentos, en cambio, exigen tradicionalmente un largo proceso de redacción, debate, negociación y aplicación, que tarda meses en completarse.

En este panorama tan cambiante, el tiempo se ha convertido en un lujo que ya no podemos permitirnos. Es imperativo actuar con rapidez para garantizar que la adopción de la IA generativa se produzca de forma saludable, ética y segura.

Temas relacionados

Artículos relacionados

Claudio Buttice
Data Analyst
Claudio Buttice
Data Analyst

El Dr. Claudio Butticè, Doctor en Farmacia, es un antiguo Director de Farmacia que trabajó para varios grandes hospitales públicos del sur de Italia, así como para la ONG humanitaria Emergency. Actualmente es autor de libros que ha escrito sobre temas como medicina, tecnología, pobreza en el mundo, derechos humanos y ciencia para editoriales como SAGE Publishing, Bloomsbury Publishing y Mission Bell Media. Sus últimos libros son "Universal Health Care" (2019) y "What You Need to Know about Headaches" (2022).Analista de datos y también periodista freelance, muchos de sus artículos se han publicado en revistas como Cracked, The Elephant, Digital…