Por qué la IA responsable es más importante que nunca en 2025

Fiabilidad

El 2024 fue un gran año para la IA generativa. Con lanzamientos de productos multimodales como GPT-4o, Claude 3.5 Sonnet y Grok, los usuarios tienen muchas soluciones entre las que elegir.

Sin embargo, mientras la innovación hace estragos, existe el riesgo de que se deje de lado el desarrollo responsable de la IA.

El año pasado, Jan Leike, investigador de aprendizaje automático de OpenAI, saltó a los titulares por abandonar la empresa, alegando que “la cultura y los procesos de seguridad de la empresa han quedado relegados a un segundo plano frente a los productos brillantes”.

Con tanto dinero sobre la mesa en un sector que se espera que alcance los 250.000 millones de dólares en 2025, existe el riesgo de que los proveedores de IA den prioridad al desarrollo sobre la seguridad, y muchos incidentes sugieren que esto ya está ocurriendo.

Conoce la importancia de la IA responsable en 2025 y por qué todos debemos prestar atención.

Puntos clave

  • Con el desarrollo acelerado de la IA, la IA responsable se está quedando en el camino.
  • El investigador de OpenAI Jan Leike ha afirmado que «la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes».
  • Anthropic ha advertido que Claude a veces falsea la alineación durante el entrenamiento.
  • Los deepfakes de alto perfil ponen de relieve la necesidad de más controles contra el contenido sintético.
  • Los expertos dicen a Techopedia que tenemos que ser más «pragmáticos» a la hora de desplegar la IA en la sociedad.

El mito del desarrollo responsable de la IA

El desarrollo responsable de la IA puede ser algo que muchos investigadores se tomen muy en serio, pero en el mundo de la gran tecnología, estas preocupaciones parecen haberse dejado de lado.

Como dijo Dimitri Sirota, director general de BigID, a Techopedia:

“La IA responsable es importante en 2025 porque la integración de la IA en casi todas las facetas de los negocios y la sociedad se ha acelerado, amplificando tanto su potencial como sus riesgos.

«A medida que los sistemas de IA se hacen más potentes y se integran en los procesos de toma de decisiones, las consecuencias de una IA no controlada o mal gobernada se hacen más graves, desde resultados sesgados hasta importantes violaciones de la privacidad de los datos.»

Incluso el desarrollo de soluciones de IA generativa como ChatGPT se ha visto favorecido por algunas prácticas cuestionables, y The New York Times ha denunciado que la empresa ha utilizado materiales y artículos protegidos por derechos de autor para entrenar sus modelos de IA generativa sin permiso ni compensación.

Y no se trata sólo de OpenAI. Google también ha dado muestras de dejar de lado el desarrollo responsable de la IA.

Ahora mismo, el motor de búsqueda proporciona resúmenes generados por IA a las preguntas de los usuarios, pero no proporciona una advertencia concreta sobre el riesgo de alucinaciones, sólo una advertencia de que «la IA Generativa es experimental». La ambigüedad de esta advertencia corre el riesgo de que los usuarios puedan creer que tales resúmenes son 100% exactos.

Google también ha demostrado cierta parcialidad en el entrenamiento de sus modelos, y los comentaristas criticaron su IA después de que se descubriera que Gemini representaba a padres fundadores negros y a soldados alemanes negros y asiáticos de la Segunda Guerra Mundial.

Este tipo de incidentes sugieren que el desarrollo responsable de la IA tiene un largo camino por recorrer en la industria. A principios de 2025, parece que la IA responsable es menos prioritaria que la innovación y el beneficio. Este tipo de enfoque conducirá inevitablemente a consecuencias negativas.

IA Generativa: los problemas entre bastidores

Aunque muchos investigadores de ML están desarrollando técnicas para intentar resolver las alucinaciones, muchos usuarios están siendo engañados o incluso perjudicados por los resultados.

Ya en 2023, un juez estadounidense impuso sanciones a dos abogados de Nueva York por presentar un escrito legal que contenía seis casos ficticios generados por ChatGPT. Del mismo modo, en noviembre de 2024, se supo que, al parecer, Google Gemini dijo a un usuario: «Eres una pérdida de tiempo y de recursos» y «Por favor, muérete».

Cualquier camino hacia el desarrollo responsable de la inteligencia artificial debe hacer hincapié en aumentar la concienciación sobre las limitaciones de los LLM, para que los usuarios no corran el riesgo de ser engañados.

Aunque proveedores como OpenAI ofrezcan avisos de advertencia como «ChatGPT puede cometer errores», hay que hacer más para comunicar a los usuarios lo comunes que son estos errores.

Algunas empresas como Anthropic han sido muy proactivas a la hora de poner de relieve los problemas de sus modelos, y recientemente publicaron un informe en diciembre de 2024 en el que señalaban que Claude a veces falsea la alineación durante el entrenamiento, cambiando sus respuestas en función de lo que cree que el usuario quiere oír. Es este tipo de investigación crítica la que ayudará a reducir la posibilidad de que los usuarios finales sean engañados o perjudicados.

Las falsificaciones profundas pueden hacer que desconfiemos de todo

El 2024 fue el año de los deepfakes a gran escala. Anteriormente relegados al uso ocasional en Hollywood de actores muertos y divertidos vídeos cantados enviados a tus amigos, ahora son una bestia muy diferente.

De hecho, la disponibilidad generalizada de modelos de texto a voz, texto a imagen y texto a vídeo ha creado un entorno en el que cualquiera puede crear contenido sintético que no se distingue de la realidad. Ahora depende de los usuarios finales adivinar qué es real y qué no lo es, con el alarmante resultado de que empiezas a desconfiar de todo.

En el transcurso de 2024, vimos deepfakes de personajes públicos, como el presidente Trump, el presidente Biden, la candidata presidencial demócrata Kamala Harris y Taylor Swift, apareciendo en plataformas como X.

En un incidente especialmente atroz, Steve Kramer utilizó tecnología deepfake para enviar una falsa robollamada haciéndose pasar por el presidente Biden para animar a la gente a no votar en las primarias del estado de New Hampshire. Este suceso pone de relieve que los deepfakes se utilizan para influir en la opinión pública y difundir información.

Al mismo tiempo, los estafadores han estado utilizando deepfakes para engañar a sus objetivos. En otro incidente de gran repercusión ocurrido en 2024, se engañó a un empleado de finanzas para que pagara 25 millones de dólares a unos estafadores que crearon una deepfake de videollamada del director financiero de la empresa.

Sin embargo, los proveedores de IA no han presentado un conjunto completo de controles para restringir la difusión de estos contenidos.

Por ejemplo, proveedores como Runway han implementado marcas de agua para ayudar a los usuarios a distinguir entre imágenes reales y sintéticas, pero estas marcas de agua también pueden eliminarse.

Del mismo modo, aunque soluciones como ChatGPT (con DALL-E 3) tienen restricciones de moderación de contenidos en la creación de imágenes de personajes públicos, estos controles a menudo pueden frustrarse mediante jailbreaking del modelo.

¿Por qué la IA responsable es importante en 2025?

Si 2024 nos ha demostrado algo, no podemos confiar únicamente en los vendedores de IA para abogar por un desarrollo responsable de la IA.

Necesitamos que usuarios, investigadores y vendedores se unan para criticar estos modelos y mejorarlos. Al fin y al cabo, después de que los usuarios denunciaran a Gemini, el director general de Google, Sundar Pichai, se comprometió a solucionar el problema.

Al mismo tiempo, aunque no existe una bala de plata que elimine las alucinaciones, los proveedores tienen que hacer más por educar a los usuarios sobre la prevalencia de estos errores y fomentar la comprobación de los hechos de todos los resultados potenciales.

En términos más generales, tiene que haber un debate más proactivo sobre la seguridad de la IA.

Juan José López Murphy, director de ciencia de datos e inteligencia artificial de Globant, dijo a Techopedia que hay «dos niveles de agregación» en los que hablamos de seguridad de la IA.

«Uno es el existencial, del tipo ‘la IA viene a por nuestras vidas’, que tiene muchos comentarios a su alrededor.

“Pero puede desplazar al segundo nivel, más pragmático e inmediato, que tiene que ver con el desarrollo ético de las tecnologías de IA, el sesgo algorítmico y la necesidad de transparencia.

«A medida que la IA configura cada vez más diversos sectores, abordar estas cuestiones es esencial para garantizar que la IA mejora las capacidades humanas al tiempo que mitiga los riesgos».

Conclusión

No hay respuestas rápidas y fáciles para salvaguardar el desarrollo responsable de la IA, y con demasiada frecuencia , el desarrollo responsable cederá ante la innovación y la búsqueda de ingresos.

En cualquier caso, presionar a los proveedores de IA para que apliquen salvaguardias y diseñar sistemas de IA de forma responsable siempre que sea posible puede ayudar a dirigir el desarrollo de la IA en una dirección más segura y responsable.

El 2025 será una época de crisis en la IA, mientras luchamos por controlarla y veamos cómo afecta a nuestras vidas. Deberíamos utilizar la IA; es una herramienta inmensamente poderosa. Pero las herramientas pueden utilizarse para bien y para mal, intencionadamente o no.

Preguntas frecuentes

¿Qué es la IA responsable y por qué es importante?

¿En qué están fallando los proveedores de IA con la IA responsable en 2025?

¿Cuáles son algunos ejemplos de fracasos de la IA?

¿Qué se puede hacer para fomentar una IA responsable?

¿Cómo pueden afectar las alucinaciones de la IA a los usuarios?

¿Qué medidas pueden tomar los gobiernos para regular la IA de forma responsable?

Temas relacionados

Artículos relacionados

Tim Keary
Technology Writer
Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.