Ética de la IA en 2025: Nuevos retos y normativas

Fiabilidad

¿Cómo podemos garantizar que la inteligencia artificial (IA) transforme nuestro mundo de forma responsable?

Sabemos que la IA tiene el potencial de transformar por completo las industrias, pero esto no significa que venga sin desafíos, como la cuestión de la aplicación de la ética de la IA. En 2025, ciertas cuestiones éticas son más críticas que nunca: ¿Quién es responsable cuando falla la IA? ¿Cómo equilibramos la innovación con la justicia y la sostenibilidad?

En este artículo, exploramos los cinco mayores retos de la IA y la ética para 2025 y examinamos los últimos avances en la normativa sobre IA en diferentes regiones, como la UE, EE.UU., Canadá y el Reino Unido.

Conclusiones clave

  • Los expertos afirman que los principales retos en 2025 son mejorar la alfabetización en IA, garantizar la responsabilidad, diseñar una IA centrada en el ser humano, abordar los impactos medioambientales y gobernar la IA agéntica.
  • La Ley de IA más estricta de la UE impone una responsabilidad clara, mientras que EE. UU. sigue un enfoque descentralizado y favorable a la industria tras eliminar las directrices federales.
  • Canadá está ampliando su sector de IA a pesar de los retrasos en la aprobación de la ley AIDA, mientras que el Reino Unido planea implementar regulaciones de IA más estrictas en 2025.
  • Resolver los desafíos éticos y regulatorios de la IA en 2025 es vital para garantizar que avance de manera responsable y beneficie a todos.

Cinco desafíos éticos clave de la IA en 2025

A medida que la IA se convierte en una parte más importante de la vida cotidiana, sus preocupaciones éticas se vuelven más importantes.

En 2025, varios desafíos importantes están dando forma al debate en torno a la ética de la inteligencia artificial, lo que pone de relieve la necesidad de equilibrar la innovación con la responsabilidad, asegurándose de que los sistemas de IA beneficien a la sociedad sin causar daño.

Esta sección analiza cinco preocupaciones éticas importantes en la IA para 2025, centrándose en la necesidad de conocimientos sobre IA, responsabilidad, diseño centrado en el ser humano y prácticas sostenibles. Al abordar estas implicaciones éticas, podemos gestionar mejor el impacto de la IA en nuestras vidas y en el mundo que nos rodea.

1. Conocimientos sobre IA: crear conciencia y comprensión

A medida que la IA se convierte en una parte más importante de la vida cotidiana, los conocimientos sobre IA son ahora clave para resolver problemas éticos.

Phaedra Boinodiris, líder global de IA fiable en IBM Consulting, explica que los conocimientos sobre IA van más allá de saber cómo funciona: implican comprender, utilizar y juzgar la IA de manera responsable.

«Para crear modelos de IA seleccionados de forma responsable, que, por cierto, también son modelos más precisos, se necesita un equipo compuesto por algo más que científicos de datos», explicó Boinodiris. «Incluye expertos en lingüística y filosofía, padres, jóvenes, gente corriente con diferentes experiencias de vida y de diferentes orígenes socioeconómicos. Cuanto más amplia sea la variedad, mejor. No se trata de moralidad, sino de matemáticas».

Aunque la IA está en todas partes, desde las noticias que vemos hasta las herramientas que utilizamos en el trabajo, muchas personas no se dan cuenta de que interactúan con ella.

Esta falta de comprensión dificulta la solución de problemas más importantes, como los algoritmos sesgados, los problemas de privacidad y la pérdida de empleo.

2. Responsabilidad: ¿Quién es responsable de las decisiones de la IA?

La responsabilidad es otra cuestión clave. Sin reglas claras sobre quién es responsable de las decisiones de la IA, la gente puede culpar fácilmente de los errores técnicos cuando las cosas van mal.

La IA explicable (XAI) desempeña un papel importante en la resolución de este problema. Al hacer que las decisiones de los sistemas de IA sean más transparentes y fáciles de entender, la XAI ayuda a garantizar que las personas u organizaciones que utilizan la IA asuman la responsabilidad de sus resultados.

Nathan Bos, doctor en psicología, científico de datos y entusiasta de los másteres de derecho, destaca la importancia ética de enseñar a los estudiantes sobre la IA explicable (XAI) en 2025.

Por eso está actualizando su curso de ética de la IA en la Universidad Johns Hopkins para incluir la investigación de 2024 de Anthropic. Esta investigación se centra en hacer que los sistemas de IA sean más transparentes y sus decisiones más fáciles de entender.

Al Dr. Bos le preocupa el descubrimiento de Anthropic de la «alabanza aduladora», por la que los sistemas de IA pueden halagar sutilmente a los usuarios. Él lo ve como una preocupación de seguridad porque tal comportamiento podría ocultar las verdaderas intenciones de una IA, lo que dificulta la rendición de cuentas del sistema.

La XAI puede evitarlo revelando patrones ocultos que permiten a las personas monitorear y guiar a la IA de manera más efectiva.

3. IA agéntica: autonomía y nuevos desafíos de gobernanza

Además, en 2025, el auge de la IA agéntica traerá nuevos desafíos. Estos sistemas pueden planificar y ejecutar tareas por sí mismos, en función de los objetivos del usuario.

Apoorva Kumar, director ejecutivo y cofundador de Inspeq AI, una plataforma de operaciones de IA responsable, advierte que esta autonomía plantea serias cuestiones de gobernanza. Jose Belo, copresidente de la sección londinense de la Asociación Internacional de Profesionales de la Privacidad (IAPP), también destaca la importancia de equilibrar la autonomía con las salvaguardias para garantizar la responsabilidad.

La IA agéntica también afectará a los puestos de trabajo. Alyssa Lefaivre Škopac, directora de Confianza y Seguridad en IA del Alberta Machine Intelligence Institute (Amii), predice debates sobre cómo la IA agéntica podría reemplazar a los trabajadores humanos y la escala a la que esto sucederá.

El Dr. Saqib Nazir, profesor adjunto del Departamento de Robótica e Inteligencia Artificial de la Universidad Nacional de Ciencias y Tecnología (NUST), cree que los futuros empleados necesitarán «Sin dormir. Sin salario. Sin prestaciones. Sin tiempo libre». Los agentes de IA serán capaces de inventar nuevas soluciones, formar organizaciones, ejecutar operaciones completas de forma independiente y coordinarse con otros sistemas de IA.

4. IA centrada en el ser humano (HCAI)

La IA centrada en el ser humano (HCAI) se centra en la creación de sistemas de IA que apoyen y trabajen con los humanos en lugar de reemplazarlos. A diferencia de los enfoques que se centran únicamente en la automatización, la HCAI sitúa las necesidades y los valores humanos en el centro del diseño de la IA.

El Dr. Bos explica que, dado que la IA se desarrolla más rápido de lo que la sociedad puede adaptarse, la HCAI es esencial para evitar que los patrones dañinos se vuelvan permanentes. Subraya la importancia de evitar diseños que oculten el funcionamiento de la IA o que dejen a los humanos fuera del circuito, y de promover, en cambio, sistemas de IA que sean fáciles de entender y que permitan a los usuarios tomar mejores decisiones.

Organizaciones como la iniciativa de IA centrada en el ser humano de Stanford y el programa Personas + IA de Google ya están trabajando para hacer realidad la IA centrada en el ser humano, pero el trabajo continúa.

5. Preocupaciones medioambientales

La alta demanda energética de los modelos de IA está creando serios desafíos medioambientales, lo que hace que las prácticas sostenibles sean esenciales para la industria. Belo, de la IAPP, señala que reducir el impacto medioambiental de la IA es una tarea compartida entre los proveedores y los usuarios de IA.

Los proveedores de IA deben tomar la iniciativa creando sistemas energéticamente eficientes y ofreciendo informes transparentes sobre las emisiones de carbono. Estos informes pueden mostrar cuánta energía se está utilizando y ayudar a encontrar formas de reducir las emisiones.

Por otro lado, los usuarios de IA pueden ayudar eligiendo centros de datos más ecológicos, gestionando cuidadosamente su uso de la nube y evitando el desperdicio innecesario de energía.

El panorama regulatorio global de la IA en 2025

Países de todo el mundo han estado creando regulaciones para la gobernanza de la IA, pero el desafío es encontrar un equilibrio entre fomentar la innovación y abordar importantes preocupaciones éticas, sociales y de seguridad. Esto incluye centrarse en la IA responsable para garantizar la equidad, la transparencia y la responsabilidad en los sistemas de IA.

A continuación, se ofrece una visión general de cómo las diferentes regiones están abordando la regulación de la IA.

La Unión Europea

En 2024, la Unión Europea introdujo la Ley de IA, que actualmente es la regulación de gobernanza de IA más detallada del mundo. Esta ley prohíbe los sistemas de puntuación social, exige que se etiquete el contenido generado por IA y establece normas estrictas para las aplicaciones de IA de alto riesgo, como la elaboración de perfiles criminales. El objetivo es reducir los riesgos y, al mismo tiempo, garantizar la responsabilidad.

La ley aún no ha entrado plenamente en vigor, pero ya está creando tensión entre las principales empresas tecnológicas estadounidenses. Les preocupa que algunas partes de la normativa sean demasiado estrictas y puedan obstaculizar la innovación.

Neil Serebryany, fundador y director general de CalypsoAI, destacó el coste inicial y las complejidades como los principales obstáculos que conllevará el cumplimiento. Declaró a Techopedia:

«Aunque la ley incluye requisitos de cumplimiento complejos y potencialmente costosos que podrían suponer una carga inicial para las empresas, también presenta una oportunidad para avanzar en la IA de forma más responsable y transparente. En última instancia, esto generará una mayor confianza de los consumidores y las partes interesadas y facilitará una adopción sostenible a largo plazo».

En diciembre de 2024, la Oficina de IA de la UE, una organización de reciente creación responsable de supervisar los modelos en virtud de la Ley de IA, publicó un segundo borrador del código de prácticas para los modelos de IA de propósito general (GPAI). Estos modelos incluyen sistemas como la serie OpenAI GPT de modelos de lenguaje grande (LLM).

El segundo borrador introdujo exenciones para los proveedores de ciertos modelos de IA de código abierto, que normalmente se ponen a disposición del público para que los desarrolladores puedan crear sus propias versiones personalizadas. También exige a los desarrolladores de modelos GPAI «sistémicos» que completen evaluaciones de riesgo detalladas.

La Computer & Communications Industry Association, que incluye miembros como Amazon, Google y Meta, advirtió que el borrador «contiene medidas que van mucho más allá del alcance acordado por la Ley, como medidas de derechos de autor de gran alcance».

Canadá

Canadá introdujo la Ley de Inteligencia Artificial y Datos (AIDA) como parte del proyecto de ley C-27, la Ley de Implementación de la Carta Digital de 2022. Sin embargo, en enero de 2025, aún no se había convertido en ley.

La AIDA tiene como objetivo crear normas claras para diseñar, desarrollar y utilizar los sistemas de IA de forma responsable, garantizando que sean seguros y no discriminatorios. Sin embargo, la ley ha sufrido retrasos debido a la falta de claridad de las normas, la limitada participación pública y las pausas en el Parlamento, lo que ha dejado a Canadá sin una normativa completa sobre IA.

Mientras tanto, Canadá solo está ampliando sus capacidades de IA. Con más de 2000 millones de dólares de financiación gubernamental y Toronto convirtiéndose en un centro líder de IA, el país está atrayendo talento e inversiones mundiales.

Toronto, a veces llamada el próximo Silicon Valley, es el hogar de grandes actores de la IA como Google y Uber, así como de empresas emergentes como Borderless AI.

Estados Unidos

El mayor avance en 2025 hasta la fecha se produjo en enero, cuando el presidente Donald Trump derogó una orden ejecutiva firmada por Joe Biden en 2023.

La orden de Biden tenía como objetivo crear directrices federales de seguridad para la IA generativa, lo que podría haber ayudado a construir un marco nacional más unificado para la regulación de la IA. Al cancelarla, Trump adoptó un enfoque más favorable a la industria, dejando la mayor parte de la regulación de la IA en manos de los estados y las agencias federales.

Esta decisión ha mantenido el sistema regulatorio de EE. UU. como una mezcla de regulaciones estatales y federales en lugar de una política única a nivel nacional.

Estados como Utah, Illinois y Colorado han creado leyes que se centran en áreas como la protección del consumidor, los derechos laborales, la transparencia y la gestión de sistemas de IA de alto riesgo. Mientras tanto, California tiene leyes para proteger las imágenes y voces de los artistas del uso indebido de la IA generativa.

Al comentar la decisión de Trump, Kenny Johnston, director de productos de Instabug, dijo a Techopedia:

«El desafío es que, en ausencia de requisitos estructurados de pruebas de seguridad, recae en la industria y los equipos de desarrollo una mayor responsabilidad para garantizar que los sistemas de IA se implementen de manera responsable.

«La derogación del decreto subraya la importancia de que los líderes tecnológicos se ofrezcan como voluntarios para abordar de forma proactiva las preocupaciones de seguridad y protección, aumentar la confianza de los consumidores y utilizar la IA de forma ética».

Reino Unido

A diferencia de la estricta Ley de IA de la UE, que clasifica los riesgos de la IA, o del enfoque impulsado por la industria de EE. UU., el Reino Unido ha adoptado una postura más flexible y «pro innovación» que se describe en su Libro Blanco 2023.

Sin embargo, el nuevo gobierno laborista planea introducir una legislación más estricta.

Su Majestad el Rey Carlos III esbozó estos planes en su discurso de julio de 2024, y en noviembre, el secretario de Ciencia, Innovación y Tecnología, Peter Kyle, confirmó el objetivo del gobierno de implementar estas regulaciones en 2025.

Plan de acción para 2025: Afrontar los retos de la IA

Ha quedado claro que 2025 será un punto crucial para los desafíos éticos, ambientales y regulatorios de la IA.

Aquí hay un plan simple para avanzar:

  1. Mejorar la alfabetización en IA

    • Las escuelas y universidades deberían añadir temas de IA a sus lecciones. Los gobiernos y las empresas también pueden crear recursos gratuitos para ayudar al público a comprender la IA y sus repercusiones.
    • Los gobiernos y las empresas tecnológicas deberían llevar a cabo campañas para explicar cómo funciona la IA y por qué es importante su uso ético.
  2. Rendición de cuentas y transparencia

    • Los desarrolladores deben crear sistemas de IA que sean fáciles de entender para que la gente sepa cómo se toman las decisiones.
    • Los gobiernos deberían introducir leyes para definir quién es responsable de las decisiones relacionadas con la IA y sus efectos.
    • Las organizaciones independientes pueden comprobar si los sistemas de IA siguen las reglas y normas.
  3. Gestión de la IA agéntica

    • Los responsables políticos necesitan normas para los sistemas de IA que actúan por sí mismos para garantizar que se utilizan de forma segura y ética.
    • Los gobiernos y las empresas deben ayudar a los trabajadores a reciclarse para desempeñar nuevas funciones si la IA sustituye a los puestos de trabajo.
    • Los desarrolladores deben establecer límites para la IA agéntica a fin de evitar daños y mantener los sistemas bajo control humano.
  4. Centrarse en la IA centrada en el ser humano (HCAI)

    • Las universidades, las empresas tecnológicas y los gobiernos deberían trabajar juntos para crear sistemas de IA que ayuden a las personas en lugar de reemplazarlas.
    • Las herramientas de IA deberían empoderar a los usuarios y mantener a los humanos involucrados en las decisiones.
    • Combinar conocimientos de campos como la ética, la psicología y la tecnología ayudará a diseñar mejores soluciones de IA.
  5. Reducir el impacto ambiental de la IA

    • Las empresas deben utilizar centros de datos energéticamente eficientes y energía renovable para reducir la huella de carbono de la IA.
    • Reciclar y retirar adecuadamente los viejos sistemas de IA puede reducir los residuos electrónicos.
    • Los gobiernos deben animar a las empresas a trabajar juntos en tecnología ecológica para la IA.

Conclusión

¿Cómo podemos equilibrar la ética de la IA con el rápido ritmo de la innovación? ¿Estamos preparados para abordar cuestiones clave como la responsabilidad, la transparencia y el impacto medioambiental?

A medida que la IA se convierte en una parte más importante de nuestra vida cotidiana, comprender la IA y la ética es más importante que nunca.

Los gobiernos, las empresas y los individuos deben trabajar juntos para garantizar que la IA se utilice de forma responsable y beneficie a la sociedad. ¿Estamos preparados para dar los pasos necesarios para un futuro de IA sostenible y responsable?

Preguntas frecuentes

¿Por qué es importante tener en cuenta la ética al utilizar la IA generativa?

¿Cuáles son las 3 grandes preocupaciones éticas de la IA?

¿Cuáles son los pilares de la ética de la IA?

¿Cuál es el futuro de la IA ética?

Temas relacionados

Artículos relacionados

Maria Webb
Technology Journalist
Maria Webb
Periodista especializada en tecnología

Especialista en contenidos con más de 5 años de experiencia periodística, Maria Webb es actualmente una periodista especializada en tecnología para Business2Community y Techopedia, y se especializa en artículos basados en datos. Tiene especial interés en la IA y el posthumanismo. Su trayectoria periodística incluye dos años como periodista estadística en Eurostat, donde elaboró atractivos artículos centrados en datos, y tres años en Newsbook.com.mt, donde cubrió noticias locales e internacionales.