La orden ejecutiva de la Casa Blanca para frenar la IA

Fiabilidad
Resumen

La orden ejecutiva de la Administración Biden responde a las preocupaciones compartidas por gobiernos de todo el mundo sobre el impacto de las tecnologías de IA, en rápido desarrollo y no reguladas, en muchos aspectos de la vida pública, desde la seguridad nacional a los derechos individuales a la privacidad, la sanidad, la educación y el empleo.

La Casa Blanca ha emitido una orden ejecutiva para gestionar los riesgos de la inteligencia artificial (IA), exigiendo a los mayores desarrolladores de IA que compartan información con el gobierno antes de hacer públicos sus algoritmos.

La orden ejecutiva es una de las primeras normativas gubernamentales sobre IA, ya que las autoridades de todo el mundo se esfuerzan por controlar el rápido avance de esta tecnología. Es:

“…establece nuevas normas de seguridad y protección de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y a los trabajadores, fomenta la innovación y la competencia, impulsa el liderazgo estadounidense en todo el mundo, y mucho más”.

El Gobierno de EE.UU. ordena la implantación segura e innovadora de la IA

La amplia orden del Gobierno de EE.UU. pretende abordar el gran impacto potencial de las tecnologías de IA:

  • Establece normas para la seguridad de la IA
  • Proteger la intimidad de los estadounidenses,
  • Promover la equidad y los derechos civiles
  • Dar forma al uso responsable de la IA en la sanidad y la educación
  • Apoyar a los trabajadores
  • Fomentar la innovación y la competencia
  • Garantiza un uso responsable y eficaz de la IA por parte de los gobiernos.

Entre las disposiciones clave, el gobierno de Biden exige que las empresas que desarrollen los sistemas de IA más potentes compartan los resultados de las pruebas de seguridad y otra información crítica con el gobierno estadounidense.

Cualquier modelo de IA que pueda suponer un grave riesgo para la seguridad nacional, la estabilidad económica o la salud y seguridad públicas se regirá por la Ley de Producción para la Defensa.

Esto significa que la empresa deberá notificar al gobierno federal el entrenamiento del modelo. El Instituto Nacional de Estándares y Tecnología establecerá normas para la realización de pruebas exhaustivas que garanticen que dichos modelos son seguros antes de su lanzamiento público.

Abordar los riesgos potenciales de la IA

Reconociendo los riesgos que plantea el uso de la IA en diversos sistemas, la Casa Blanca ordenó:

  • Que las agencias que financian proyectos de ciencias de la vida establezcan normas para la detección de síntesis biológicas como condición para la financiación federal, con el fin de proteger contra los riesgos del uso de la IA para diseñar materiales biológicos peligrosos.
  • Que el Departamento de Comercio elabore directrices sobre autenticación de contenidos y marcas de agua para etiquetar claramente los contenidos generados por IA, con el objetivo de limitar el fraude y el engaño posibilitados por la IA.
  • La creación de un programa avanzado de ciberseguridad para desarrollar herramientas de IA que permitan detectar y corregir vulnerabilidades en software crítico.
  • Que el Consejo de Seguridad Nacional y el Jefe de Gabinete de la Casa Blanca elaboren un memorando de Seguridad Nacional que ordene al ejército y a la comunidad de inteligencia de EE.UU. utilizar la IA de forma segura y ética, y que dirijan acciones para contrarrestar el uso militar de la IA por parte de los adversarios.
  • Financiación de una Red de Coordinación de la Investigación para acelerar el desarrollo y uso de tecnologías que preserven la privacidad.

La Administración Biden-Harris ha publicado previamente un Plan para una Declaración de Derechos de la IA y ha emitido una Orden Ejecutiva que ordena a las agencias combatir la discriminación algorítmica al tiempo que aplican la autoridad existente para proteger los derechos y la seguridad de los ciudadanos.

Ante la creciente preocupación por el potencial de la IA para reforzar la discriminación y desplazar puestos de trabajo, la Casa Blanca está dirigiendo acciones adicionales para proporcionar orientación para evitar que los algoritmos de IA se utilicen para exacerbar la discriminación, incluso en todo el sistema judicial; avanzar en el uso responsable de la IA en la asistencia sanitaria y el desarrollo de medicamentos; crear recursos para apoyar a los educadores que despliegan herramientas habilitadas para la IA; y desarrollar mejores prácticas para mitigar los daños y maximizar los beneficios de la IA para los trabajadores.

El reto de la regulación gubernamental de la IA

El amplio alcance de la orden ejecutiva y las cuestiones que plantea sobre el impacto de la IA en la seguridad nacional, la privacidad, los derechos civiles, la sanidad, la educación y la mano de obra ilustran el alcance del reto al que se enfrentan los gobiernos a la hora de regular la proliferación de algoritmos y modelos de IA. También plantea interrogantes sobre la medida en que los gobiernos controlarán y podrán controlar la adopción generalizada de la IA.

La Administración Biden consultó a otros gobiernos sobre los marcos de la IA antes de publicar la orden, entre ellos Australia, Brasil, Canadá, Chile, la Unión Europea, India, Israel, Japón, Kenia, México, Países Bajos, Nueva Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, Emiratos Árabes Unidos y Reino Unido.

Los principios esbozados apoyan el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de India como Presidente de la Asociación Mundial sobre IA y los debates en curso en la ONU, señala la declaración.

Pero, ¿pueden los gobiernos equilibrar el impacto sobre la seguridad del empleo en diversas industrias con el deseo de apoyar a las empresas nacionales en la carrera mundial de la innovación?

Varias empresas de IA acogieron con satisfacción el anuncio, pero algunos directores ejecutivos expresaron su preocupación por la posibilidad de que la normativa impidiera a las empresas más pequeñas desarrollar tecnologías de IA, ahogando la innovación.

Los líderes de los grupos de defensa respondieron positivamente, pero señalaron los retos de la aplicación.

«Es notable ver que la Administración se centra tanto en los riesgos emergentes de los sofisticados modelos de base como en las muchas formas en que los sistemas de IA ya están afectando a los derechos de las personas. La Administración subraya acertadamente que la innovación estadounidense también debe incluir salvaguardias pioneras para desplegar la tecnología de forma responsable”, dijo Alexandra Reeve Givens, Presidenta y Directora General del Centro para la Democracia y la Tecnología.

«Por supuesto, el éxito de la OE dependerá de su aplicación efectiva. Instamos a la Administración a actuar con rapidez para cumplir los plazos pertinentes y garantizar que cualquier orientación o mandato emitido en virtud de la OE sea lo suficientemente específico y procesable como para impulsar un cambio significativo”, dijo Givens.

«La orden ejecutiva de hoy es un paso vital de la administración Biden para iniciar el largo proceso de regulación de la tecnología de IA, que avanza rápidamente, pero es sólo un primer paso. Además de establecer un marco para el uso gubernamental de la IA, la OE reconoce el poder del gobierno para establecer normas y estándares como principal comprador de tecnología. Se trata de una importante palanca política”, afirmó en un comunicado Robert Weissman, presidente de la organización de defensa de los consumidores Public Citizen.

«Sin embargo, por mucho que la Casa Blanca pueda hacer de forma independiente, esas medidas no sustituyen a la regulación de las agencias ni a la acción legislativa.

Prevenir las amenazas previsibles e imprevisibles de la IA exige que las agencias y el Congreso tomen el testigo de la Casa Blanca y actúen ahora para dar forma al futuro de la IA, en lugar de dejar que un puñado de empresas determine nuestro futuro, con el consiguiente riesgo potencial”, añadió Weissman.

Public Citizen ha estado presionando para que se regule la tecnología de IA, y recientemente ha solicitado a la Comisión Federal Electoral (FEC) que introduzca una nueva norma que prohíba las deepfakes políticas en la publicidad de las campañas electorales.

«La nueva orden ejecutiva da en el clavo al reconocer tanto las promesas como los peligros de la IA», dijo Sarah Kreps, profesora de Gobierno y directora del Tech Policy Institute de la Universidad de Cornell. «Lo que falta es un mecanismo de aplicación y cumplimiento. Pide muchas medidas que probablemente no reciban respuesta».

Lo esencial

La orden ejecutiva de la Administración Biden responde a las preocupaciones compartidas por gobiernos de todo el mundo sobre el impacto del rápido desarrollo y la falta de regulación de las tecnologías de IA en muchos aspectos de la vida pública, desde la seguridad nacional a los derechos de privacidad individual, la sanidad, la educación y el empleo.

Esto plantea interrogantes sobre hasta qué punto los gobiernos pueden y podrán controlar el impacto de la IA. Cualquier regulación eficaz requerirá el apoyo de los legisladores y las empresas para hacer realidad la promesa de la tecnología y limitar al mismo tiempo su impacto negativo.

Temas relacionados

Artículos relacionados

Nicole Willingde
Editora

Nicole Willing cuenta con dos décadas de experiencia en la redacción y edición de contenidos sobre tecnología y finanzas. Es experta en los mercados de materias primas, acciones y criptomonedas, así como en las últimas tendencias del sector tecnológico, desde los semiconductores hasta los vehículos eléctricos. Su experiencia informativa sobre la evolución de los equipos y servicios de redes de telecomunicaciones y la producción de metales industriales le da una perspectiva única sobre la convergencia de las tecnologías del Internet de las Cosas y la fabricación.