Trump revoca la legislación sobre riesgos de la IA: Lo que dicen los expertos

Fiabilidad

El lunes, el presidente Donald Trump revocó la orden ejecutiva del expresidente Joe Biden que imponía diversas salvaguardias al desarrollo de la IA.

Biden firmó la orden original para reducir los riesgos de la IA para los consumidores, los trabajadores y la seguridad nacional. Exigía a los desarrolladores de IA que compartieran los resultados de las pruebas de seguridad con el gobierno de EE.UU. de acuerdo con la Ley de Producción de Defensa.

La Orden Ejecutiva 14110, de 2023, cubría “el desarrollo y uso seguro y fiable de la Inteligencia Artificial”. Biden implementó la orden después de que los funcionarios fueran incapaces de aprobar una legislación que impusiera restricciones al desarrollo de la inteligencia artificial, y la administración la consideró crucial para mitigar los riesgos sustanciales de la IA. Esto incluía abordar los posibles riesgos químicos, nucleares y de ciberseguridad que podrían poner en peligro la seguridad nacional.

Sin embargo, ahora se ha derogado. El Partido Republicano dejó claras sus ideas en la plataforma del Partido Republicano de 2024, declarando:

“Derogaremos la peligrosa Orden Ejecutiva de Joe Biden que obstaculiza la innovación en IA e impone ideas radicales de izquierdas al desarrollo de esta tecnología. En su lugar, los republicanos apoyan el desarrollo de la IA basado en la libertad de expresión y el florecimiento humano.”

Hablamos con expertos en IA sobre lo que llegó a ser uno de los primeros actos de Trump: ¿es bueno para el avance de la IA y conlleva riesgos?

Puntos clave

  • El presidente Donald Trump ha derogado la orden ejecutiva del ex presidente Joe Biden relativa a los riesgos de la IA en uno de sus primeros actos desde que fue elegido.
  • La decisión allana el camino para que las empresas de IA desarrollen productos sin apenas supervisión.
  • Los expertos afirman a Techopedia que les preocupan las implicaciones que tendrá en la seguridad de la IA y la integridad de los datos.
  • Analizamos los pros y los contras de la medida y sus posibles consecuencias.

Reacción del sector: ¿Es buena o mala la derogación de las leyes sobre IA?

Techopedia pidió su veredicto a los líderes de la IA y el desarrollo de software. Kenny Johnston, director de producto de Instabug, que apoya a 25.000 equipos de desarrollo móvil, dijo a Techopedia:

«La derogación de la orden ejecutiva de 2023 sobre la seguridad de la IA marca el comienzo de un cambio drástico con respecto a cómo Estados Unidos aborda la regulación que afecta al futuro de la IA».

Para el sector tecnológico en general, esto supone una oportunidad y un reto al mismo tiempo. Los desarrolladores, incluidos los de aplicaciones móviles, son fundamentales en la implementación de la IA a medida que actualizan y transforman las formas en que los usuarios interactúan con los dispositivos.

«El desafío es que, en ausencia de requisitos estructurados de pruebas de seguridad, una mayor responsabilidad recae en la industria y los equipos de desarrollo para garantizar que los sistemas de IA se implementen de manera responsable».
«La derogación de la orden ejecutiva subraya la importancia de que los líderes tecnológicos se ofrezcan como voluntarios para abordar de forma proactiva las preocupaciones de seguridad y protección, impulsar la confianza de los consumidores y utilizar la IA de forma ética».

«La colaboración de la comunidad tecnológica mantiene el progreso en IA y continuará, junto con la salvaguarda contra cualquier riesgo percibido».

Mike Capone, CEO de la plataforma de integración de datos e IA Qlik, dijo a Techopedia:

«La decisión de revocar la orden ejecutiva de Biden sobre los riesgos de la IA refleja la tensión actual entre la innovación y la regulación en campos de rápida evolución como la inteligencia artificial».

La supresión de la orden ejecutiva no debe considerarse una luz verde para la adopción descuidada de la IA, sino más bien una oportunidad para que el sector privado dé un paso adelante».

«El camino hacia el futuro pasa por la innovación combinada con la intencionalidad: incorporar la responsabilidad al ADN del desarrollo de la IA desde el principio.

«Aunque la supervisión reglamentaria puede proporcionar importantes barreras, la historia demuestra que la política gubernamental suele ir por detrás del ritmo de la innovación. Esta dinámica hace que corresponda al sector privado liderar la garantía de que el desarrollo y el despliegue de la IA sean responsables, éticos y seguros.

«Creemos firmemente que las empresas no deben esperar a los mandatos normativos para actuar de forma responsable. Las prácticas responsables de IA -apuntaladas por datos de alta calidad y bien gestionados- no se limitan a la mitigación de riesgos.

«Son un imperativo estratégico que mejora la confianza, reduce la exposición a riesgos operativos y de reputación, y genera mejores resultados tanto para los clientes como para los accionistas.

«Hemos visto de primera mano que las empresas que priorizan las bases de datos sólidas y la transparencia en sus sistemas de IA obtienen una ventaja competitiva al tiempo que salvaguardan la confianza pública».

«En un mundo en el que las capacidades de IA avanzan a un ritmo sin precedentes, las empresas deben equilibrar la velocidad con la responsabilidad».

«Lo que está en juego es demasiado importante como para tratar esto como una idea tardía».

Jonas Jacobi, CEO y cofundador de ValidMind, la plataforma de gestión de riesgos de modelos de IA, dijo a Techopedia:

«El retroceso de la orden ejecutiva de IA de 2023 desplaza el foco de atención de las salvaguardas diseñadas para guiar el uso responsable de la IA dentro del gobierno».

«Esto plantea preocupaciones sobre cómo la IA podría ser utilizada o mal utilizada en áreas críticas como los servicios públicos, la aplicación de regulaciones y la seguridad nacional».

«También sirve como posible indicador de la trayectoria de la regulación de la IA -o la falta de supervisión- en los próximos años, lo que subraya la necesidad de vigilancia y defensa para garantizar que la transparencia, la rendición de cuentas y los principios responsables sigan siendo fundamentales en la forma en que nuestro gobierno aprovecha las tecnologías de IA.»

¿Podrían los Estados de EE.UU. establecer su propia legislación sobre IA?

Una consideración que a menudo se pasa por alto en el asombro inicial por los sistemas generativos de IA es que estos sistemas no son completamente objetivos e imparciales. Los algoritmos y los datos que los sustentan pueden contener sesgos y puntos ciegos.

Esto no se debe necesariamente a una actividad nefasta de los proveedores de IA, sino que puede tratarse de sesgos inconscientes que los desarrolladores son incapaces de ver. La relajación de la supervisión podría exacerbar esta situación, ya que las competencias de que disponen las autoridades se diluyen.

Una opción podría ser que los estados de EE.UU. menos favorables a este reposicionamiento de la política de IA propusieran sus propias leyes. En teoría, esto sería posible si las leyes no contravinieran las leyes federales existentes. En la práctica, esto puede resultar difícil, y no está claro qué impacto tendrán las leyes estatales en las empresas nacionales e internacionales.

Además, es probable que la legislación que no se haya preparado en previsión de que Trump derogue la orden ejecutiva tarde mucho tiempo en redactarse, por no hablar del camino que recorre antes de convertirse en ley. Esto podría dar tiempo a las empresas de IA para realizar cambios y beneficiarse de la laxitud de la normativa mientras se libra la batalla legislativa.

También es importante mencionar que esto significaría que EE.UU. y la UE se distancian aún más. La UE ha seguido el camino de la supervisión cuidadosa, asegurándose de que no se deja piedra sin remover para evitar que la IA se utilice de forma que pueda perjudicar a sus ciudadanos.

Con Estados Unidos adoptando el enfoque de la desregulación, parece inevitable una menor colaboración entre las potencias, lo que puede crear más problemas en el futuro.

¿Cuáles son los pros y los contras de la derogación de la IA de Trump?

Haciendo zoom, hay varios pros y contras potenciales de la decisión.

Como mencionó el Partido Republicano en su declaración, podría estimularse la innovación, ya que las empresas dejarían de preocuparse por cumplir normativas específicas. También podría liberar recursos que se destinarían a investigación y desarrollo, lo que daría lugar a nuevos avances.

Desde el punto de vista geopolítico, también podría permitir a EE . UU. mantener su ventaja sobre China, sobre todo porque se espera que las exportaciones tecnológicas a China se restrinjan más, y no menos, con Trump. Esto podría permitir a EE. UU. sofocar la innovación china en IA, que se ha destacado como un problema de seguridad nacional desde hace algún tiempo.

Muchos líderes empresariales también verán la decisión de Trump como un impulso para sus negocios. Aumentar el uso de la IA les brindará una gran oportunidad para lograr una mayor eficiencia. Podrán realizar tareas como codificar y escribir software con menos recursos humanos dedicados a ellas.

Por otro lado, las posibles desventajas son significativas, ya que la IA se ha convertido en una parte importante de muchos ámbitos de la vida empresarial y cívica.

En los últimos meses, hemos asistido a una avalancha de problemas legales relacionados con el modo en que las empresas de IA desarrollan sus productos y la propiedad intelectual que han podido infringir en nombre del progreso.

Con menos salvaguardias legales, las empresas pueden atreverse a tomar medidas más agresivas en áreas controvertidas como el rastreo de sitios web y la infracción de derechos de autor sin temor a repercusiones legales.

Aunque es difícil predecir el futuro, dejar cualquier industria sin control y confiar en que las entidades con intereses creados se regulen a sí mismas no parece una receta para el progreso responsable de la IA.

Puede que veamos un aumento de los avances tecnológicos, pero también puede que veamos deepfakes y campañas de desinformación más sofisticadas. Algunos verán esto como un precio que merece la pena pagar, mientras que otros estarán preocupados por el impacto que esto tendrá en un discurso cada vez más partidista.

La seguridad en el empleo también es un tema candente y difícil de analizar. ¿Nos preocupa demasiado o no lo suficiente? Parece una negligencia del deber que los gobiernos de todo el mundo se queden de brazos cruzados mientras aumenta el desempleo debido a la IA, pero sin una bola de cristal, no está claro cómo evolucionará el mercado laboral tecnológico en los próximos años.

La esperanza es que cree tantos puestos de trabajo, si no más, de los que quita. Sin embargo, es posible que el progreso no sea lineal y que se produzcan importantes trastornos mientras se resuelve.

Lo esencial

En los últimos años, todos nos hemos ido adaptando al nuevo mundo de la IA, a menudo luchando por predecir cómo serán las cosas. Ahora parece que esas consecuencias pueden llegar más pronto que tarde, ya que las fuerzas estabilizadoras/restricciones innecesarias (según se mire) han desaparecido.

Ahora veremos cómo las fuerzas del mercado guían su desarrollo, lo que podría dar lugar a una apasionante era de innovación o a una de importantes tumultos que trastornen muchos elementos de la sociedad.

Temas relacionados

Artículos relacionados