¿Qué es una barrera de seguridad de IA?
Una barrera de seguridad de IA es una protección que se coloca para evitar que la inteligencia artificial (IA) cause daños. Los guardarraíles de la IA son muy parecidos a los guardarraíles de las autopistas: ambos se crean para mantener a salvo a las personas y orientar los resultados positivos.
A medida que evoluciona la IA, los guardarraíles son cada vez más importantes para mantener la confianza del público en la IA y garantizar que la tecnología habilitada para la IA funcione de forma segura dentro de los límites éticos y legales.
Sin embargo, la creación de barreras de protección de la IA con las que todo el mundo esté de acuerdo es un reto, debido al rápido ritmo de los avances tecnológicos, los diferentes sistemas jurídicos de todo el mundo y la dificultad de equilibrar la innovación de la IA con la necesidad de privacidad, justicia y seguridad pública.
¿Por qué necesitamos barreras de seguridad para la IA?
Los guardarraíles de IA son un componente crítico de la gobernanza de la IA y del desarrollo, despliegue y uso de la IA responsable.
En el último año, las barreras de seguridad se han mencionado a menudo en el contexto de la IA generativa, pero es importante recordar que las salvaguardias son consideraciones vitales para cualquier tipo de sistema de IA que pueda tomar una decisión de forma autónoma.
Esto incluye algoritmos de aprendizaje automático (ML) relativamente sencillos que deciden entre dos opciones, así como sistemas de IA multimodal cuyas decisiones pueden tener literalmente miles de millones de resultados potenciales.
Como se ha visto en todo el mundo, cuando no existen barreras de protección, la tecnología de IA puede perpetuar los prejuicios, crear nuevas preocupaciones sobre la privacidad, tomar decisiones erróneas o poco éticas que afectan directamente a la vida de las personas y ser mal utilizada con fines perjudiciales.
No es de extrañar que esto, a su vez, haya llevado a muchas personas a desconfiar de la IA.
¿Quién es responsable de crear barreras de seguridad para la IA?
La creación y aplicación de barreras de seguridad para la IA es un esfuerzo de colaboración que implica a un grupo diverso de partes interesadas. Esto incluye:
- Grandes empresas tecnológicas y startups de IA
- Líderes empresariales
- Investigadores de IA
- Organizaciones cívicas
- Éticos
- Organizaciones profesionales
- Organismos gubernamentales
- Organizaciones mundiales destacadas
- Expertos jurídicos.
Cada una de estas partes interesadas aporta una perspectiva única y un conjunto de habilidades que, en teoría, deberían contribuir a un enfoque más holístico del desarrollo de barreras de protección para tipos específicos de inteligencia artificial.
El problema es que cuando los intereses de las partes interesadas son demasiado diversos, puede resultar difícil conciliar prioridades contrapuestas y encontrar un equilibrio con el que todos puedan convivir.
Demasiados controles pueden ahogar la innovación, y muy pocos pueden dejar la puerta abierta a consecuencias perjudiciales que socaven la seguridad y la confianza pública.
Tipos de barreras de seguridad de IA
Las barreras de seguridad de la IA pueden aplicarse mediante controles técnicos, políticas y leyes.
Los controles técnicos están integrados en la propia IA. En cambio, las políticas son directrices internas o externas, y las leyes son reglamentos de obligado cumplimiento promulgados por los gobiernos.
Cada tipo de barrera desempeña un papel importante a la hora de garantizar el desarrollo y la implantación responsables de la IA, y su fuerza combinada reside en su naturaleza complementaria.
Controles técnicos
Los controles técnicos se integran directamente en los flujos de trabajo de la IA como procesos operativos que se convierten en parte integrante del funcionamiento diario de la IA. Este tipo de control incluye
- Marcas de agua para los contenidos generados por IA.
- Pruebas de validación que pueden verificar que un sistema complejo de IA se comporta como está previsto.
- Reglas empresariales que determinan cómo se comportan los sistemas de IA sencillos en determinados escenarios.
- Mecanismos de retroalimentación que permitan a los usuarios notificar errores.
- Directrices y protocolos de seguridad diseñados para proteger los componentes del sistema de IA de ciberataques y usos indebidos.
Barreras basadas en políticas
A diferencia de las barreras técnicas, las basadas en políticas no se incorporan a los flujos de trabajo. En cambio, su impacto puede observarse en cómo se diseñan y gestionan los flujos de trabajo de IA.
Las barreras de seguridad basadas en políticas suelen ser específicas de una organización o sector y pueden variar mucho en cuanto a alcance y detalle. Este tipo de guardarraíles incluye:
- Directrices sobre cómo deben recopilarse. almacenarse y compartirse los datos de formación.
- Mejores prácticas para abordar las preocupaciones éticas de la IA, como la imparcialidad y la responsabilidad.
- Marcos diseñados para garantizar que los sistemas de IA cumplen las normativas de seguridad o específicas del sector.
- Políticas que regulen los derechos de propiedad intelectual de los contenidos generados por IA.
- Criterios de seguridad para el uso de la IA en áreas de alto riesgo como los vehículos autónomos y la asistencia sanitaria.
- Directrices de accesibilidad para poner la tecnología de IA a disposición de las personas con discapacidad.
Barreras legales
Las barreras jurídicas consisten en leyes aprobadas por las asambleas legislativas, reglamentos que se utilizan para aplicar las leyes y normas formales que se utilizan para evaluar el cumplimiento de las leyes y reglamentos.
Las barreras jurídicas tienen una gran influencia en la creación de barreras políticas y técnicas. Algunos ejemplos de barreras legales para la IA son:
- La legislación que aborda la responsabilidad de los vehículos automatizados asegurados en el Reino Unido.
- Una orden ejecutiva que exige disposiciones para el uso gubernamental de la IA generativa en California.
- Una propuesta de modificación de la Directiva de la UE sobre responsabilidad por productos defectuosos responsabilizará a los fabricantes de los daños relacionados con la IA en determinadas condiciones.
- Una propuesta de ley para limitar el uso de sistemas de vigilancia biométrica por parte de entidades gubernamentales federales, estatales y locales en Estados Unidos.
- Una orden ejecutiva que obliga a los desarrolladores de Big Tech a compartir información con el gobierno de Estados Unidos antes de hacer públicos sus algoritmos.
La naturaleza dinámica de la tecnología de la IA, así como la complejidad técnica de la IA de caja negra, ha dado lugar a opiniones divergentes sobre quién debe ser responsable de las barreras de seguridad de la IA y cómo deben aplicarse.
Llegar a un consenso sobre qué tipos de barreras de seguridad para la IA legislar está resultando ser un reto aún mayor que va a requerir la voluntad por parte de las partes interesadas de dar cabida a una amplia gama de puntos de vista sobre la seguridad, la ética y la gobernanza.
Referencias
- Guardrails for Different Types of AI | Artificial Intelligence in Plain English (Medium)
- Automated and Electric Vehicles Act 2018 (Legislation.gov.uk)
- California Eyes New Privacy, Cyber, and AI Obligations (Jdsupra)
- Artificial Intelligence Liability Directive (European Parliament)
- H.R. 1404 – 118th Congress (2023-2024)L Facial Recognition and Biometric Technology Moratorium Act of 2023 (Congress.gov)