Ley de Inteligencia Artificial de la UE

Fiabilidad

¿Qué es la ley de IA de la UE?

La Ley de Inteligencia Artificial de la Unión Europea (Ley de IA de la UE) es una propuesta de marco regulador para el desarrollo, la comercialización y el uso de la inteligencia artificial (IA). El objetivo del marco es definir legalmente la inteligencia artificial e imponer requisitos de documentación, auditoría y procesos a los proveedores de IA.

El marco se basa en el riesgo y, al igual que el Reglamento General de Protección de Datos (RGPD), pretende lograr un equilibrio entre la innovación, los intereses económicos y los derechos y la seguridad de los ciudadanos. Si se aprueba, el marco será vinculante para los 27 Estados miembros de la UE y se aplicará a cualquiera que cree y difunda sistemas de IA en la Unión Europea, incluidas empresas extranjeras como Microsoft, Google y OpenAI.

Si el marco se convierte en ley, exigirá a las empresas que evalúen formalmente los riesgos que plantean sus sistemas de IA antes de ponerlos en uso, y otorgará al gobierno europeo la autoridad para multar a las empresas que infrinjan las normas de cumplimiento del marco.

La legislación también facultará a los ciudadanos europeos para presentar denuncias contra los proveedores de IA que consideren que infringen la Ley.

Definición de IA

La definición jurídica de IA ha sido una cuestión importante a la hora de determinar el ámbito de aplicación del reglamento propuesto, y la definición se revisó en múltiples ocasiones antes de que el Parlamento Europeo aprobó el marco en junio de 2023.

La última revisión de la Ley define la IA como “un sistema basado en máquinas que está diseñado para funcionar con distintos niveles de autonomía y que puede, con objetivos explícitos o implícitos, generar resultados como predicciones, recomendaciones o decisiones que influyen en entornos físicos o virtuales.”

Niveles de riesgo

Según la Ley de IA, toda inteligencia artificial se clasificará en uno de cuatro niveles de riesgo:

  • Riesgo inaceptable

Se prohibirán los sistemas de IA que supongan un riesgo inaceptable para los derechos y libertades fundamentales. Esto incluye sistemas de IA que se utilizan para crear sistemas de puntuación social que podrían utilizarse para discriminar a ciertos grupos de personas, sistemas de IA que se utilizan para crear deepfakes que podrían utilizarse para difundir desinformación o propaganda, y sistemas de IA no autorizados que podrían utilizarse para controlar infraestructuras críticas, como redes eléctricas o sistemas de transporte.

  • Alto riesgo

Los sistemas de IA que supongan un alto riesgo para los derechos y libertades fundamentales estarán sujetos a una serie de requisitos de cumplimiento normativo. Esto incluye los sistemas de IA que se utilizan para evaluar la solvencia crediticia o tomar decisiones de contratación, los sistemas de IA que se utilizan para proporcionar reconocimiento facial u otros servicios de identificación biométrica, y los sistemas de IA que se utilizan para hacer diagnósticos médicos o recomendar tratamientos.

Los sistemas de IA de alto riesgo requerirán un permiso de un regulador gubernamental. Deberán formarse con datos de alta calidad, disponer de capacidades de registro y trazabilidad y someterse a un exhaustivo proceso de gestión y mitigación de riesgos. Las solicitudes deberán ir acompañadas de documentación detallada.

  • Riesgo limitado

Los sistemas de IA que plantean un riesgo limitado para los derechos y libertades fundamentales no están sujetos a ningún requisito específico, pero deben cumplir los principios generales de la ética responsable de la IA. Esta categoría de riesgo incluye los sistemas de IA que se utilizan para prestar servicios de atención al cliente o responder a preguntas, los sistemas de IA que se utilizan para generar noticias personalizadas o recomendaciones de productos, y los sistemas de IA que se utilizan para controlar dispositivos domésticos inteligentes o jugar.

  • Riesgo mínimo o nulo

Los sistemas de IA que suponen un riesgo mínimo o nulo para los derechos y libertades fundamentales no están sujetos a ningún requisito específico. Esto incluye los sistemas de IA que se utilizan para identificar y bloquear correos electrónicos de phishing, generar previsiones meteorológicas, procesar imágenes o vídeos, o hacer predicciones sencillas, como si es probable que un cliente haga clic en un anuncio.

La Ley de IA de la UE no clasifica explícitamente los niveles de riesgo desconocidos, pero sí establece que si un sistema de IA plantea un riesgo que “aún no se conoce”, el sistema debe considerarse de alto riesgo.

Cumplimiento de la Ley de IA de la UE

La Ley de Inteligencia Artificial de la Unión Europea exige a los Estados miembros de la UE que establezcan al menos un entorno seguro oficial para probar los sistemas de inteligencia artificial antes de su implantación.

La aplicación de la norma corresponderá a los 27 Estados miembros de la UE, y su incumplimiento estará sujeto a sanciones de hasta 40 millones de euros o el 7% de los ingresos globales anuales de una empresa, según cuál sea el importe más elevado.

Muchos de los principales líderes empresariales europeos se han opuesto a la legislación propuesta por la Unión Europea, advirtiendo de que el proyecto de normas para la IA de alto riesgo va demasiado lejos, especialmente en lo que respecta a la regulación de la IA generativa y los modelos fundacionales, la tecnología que subyace a plataformas populares como ChatGPT.

Han expresado su preocupación por que la propuesta de la UE se aplique con demasiada amplitud a los GPAIS (Sistemas de Inteligencia Artificial de Propósito General) y a los grandes modelos lingüísticos (LLM), independientemente de sus casos de uso, y sostienen que la pesada carga de cumplimiento que esto supone ahogará la innovación y desalentará a los inversores.

Propuestas competidoras de legislación sobre IA

La Ley de IA de la Unión Europea, a la que la prensa se refiere a veces como AIA, fue aprobada por el Parlamento Europeo en junio de 2023 y se espera que sea adoptada por el Consejo de la Unión Europea a finales de 2023. Si se aprueba, será la primera normativa importante y exhaustiva sobre IA en el mundo.

Sin embargo, a medida que la IA sigue desarrollándose, otros países y organizaciones también están reconociendo la necesidad de legislar la inteligencia artificial. En general, las propuestas de regulación de la IA que compiten entre sí varían en cuanto al alcance de la regulación, su nivel de detalle y sus mecanismos de aplicación.

Algunos países están más preocupados por los riesgos éticos de la IA, como el sesgo de las máquinas y las violaciones de la privacidad, mientras que otros están más preocupados por promover los beneficios potenciales de la IA y el crecimiento económico. Más de un país está luchando por crear una legislación que equilibre ambas preocupaciones.

Entre las iniciativas y marcos propuestos que compiten entre sí en todo el mundo se incluyen:

País Legislación/estrategia Descripción
Estados Unidos Marco de innovación segura para la política de IA Un marco que esboza cuatro “limitaciones” para la regulación de la IA: Responsabilidad, transparencia, explicabilidad y seguridad.
Plan para una declaración de derechos de la IA Esboza los principios de buenas prácticas para el desarrollo y el uso de la IA en todo el sector.
Iniciativa Nacional de Inteligencia Artificial Iniciativa bipartidista destinada a acelerar el desarrollo y la adopción responsables y éticos de la IA en Estados Unidos.
China Plan de Desarrollo de la Inteligencia Artificial de Nueva Generación Plan que describe la visión de China sobre el desarrollo de la IA, especialmente en los ámbitos de la sanidad, el transporte y la seguridad.
Reglamento sobre la Administración de Productos y Servicios Potenciados por Inteligencia Artificial Establece un marco para los modelos y normas utilizados para generar contenidos impulsados por IA.
Directrices éticas para el desarrollo y la aplicación de la inteligencia artificial Directrices que proporcionan principios para el desarrollo y uso éticos de la IA en China.
Reino Unido Estrategia Nacional de IA Estrategia que esboza la visión del gobierno del Reino Unido para el desarrollo de la IA en la sanidad, la educación y el medio ambiente.
Marco de gestión de la IA Marco que hace hincapié en la innovación y establece principios para la gobernanza de la IA en el Reino Unido, como la transparencia, la responsabilidad y la ética.
Canada Ley de Inteligencia Artificial y Datos (AIDA) Marco regulador propuesto para la IA en Canadá que cubre todas las aplicaciones de la IA, independientemente del riesgo.
Estrategia canadiense de IA La visión del gobierno canadiense para el desarrollo de la IA se centra en la sanidad, el transporte y el medio ambiente.
Australia Marco ético de la IA Marco que presenta los principios éticos para el desarrollo y uso de la IA en Australia.
Corea del Sur Directrices éticas sobre IA Directrices que establecen principios éticos para el desarrollo y uso de la IA en Corea del Sur.
Ley de promoción de la industria de la IA Un plan maestro que incorpora una legislación anteriormente fragmentada para la IA en Corea del Sur.
Japón Directrices éticas sobre IA Directrices para el desarrollo y uso de la IA en Japón.
Ley de Promoción de la Investigación, el Desarrollo y la Utilización de la Inteligencia Artificial Marco no normativo y no vinculante para el desarrollo y uso de la IA en Japón.
Singapur Marco de gobernanza de la IA Marco para la gobernanza de la IA en Singapur que aborda la transparencia, la responsabilidad y la ética.
Estrategia Nacional de Inteligencia Artificial Estrategia que establece la visión del Gobierno de Singapur para el desarrollo de la IA en la sanidad, la educación y el medio ambiente.

Temas relacionados

Margaret Rouse
Technology expert
Margaret Rouse
Experta en tecnología

Margaret Rouse es una galardonada escritora técnica y profesora conocida por su habilidad para explicar temas técnicos complejos a una audiencia de negocios no técnica. Durante los últimos veinte años, sus explicaciones han aparecido en sitios web de TechTarget y ha sido citada como autoridad en artículos del New York Times, Time Magazine, USA Today, ZDNet, PC Magazine y Discovery Magazine. La idea de diversión de Margaret es ayudar a profesionales de TI y negocios a aprender a hablar los idiomas altamente especializados de cada uno. Si tienes una sugerencia para una nueva definición o cómo mejorar una explicación técnica,…