Uno de los retos que plantea la proliferación de la inteligencia artificial (IA) es la lucha contra la difusión de contenidos destinados al engaño y el fraude.
En su reciente orden ejecutiva sobre IA, la Casa Blanca ordenó al Departamento de Comercio de EE.UU. que elaborara orientaciones sobre autenticación de contenidos y marcas de agua para etiquetar claramente los contenidos generados por IA.
La orden establece lo siguiente:
“Las agencias federales utilizarán estas herramientas para facilitar que los estadounidenses sepan que las comunicaciones que reciben de su gobierno son auténticas, y para dar ejemplo al sector privado y a los gobiernos de todo el mundo.”
Pero, ¿hasta qué punto puede ser esto eficaz cuando hay medios para que los malos burlen las marcas de agua y las técnicas de autenticación? ¿Qué tipo de regulación es necesaria?
Puntos Clave
- La orden ejecutiva de la Casa Blanca ordena al Departamento de Comercio de EE.UU. que elabore directrices sobre autenticación de contenidos y marcas de agua para combatir la difusión de contenidos engañosos generados por IA.
- Las marcas de agua y las herramientas de detección basadas en IA son potencialmente los mejores métodos para identificar contenidos engañosos, pero su eficacia puede ser incoherente, imprecisa y voluntaria.
- El proyecto Content Credentials, un protocolo de código abierto desarrollado por la Coalition for Content Provenance and Authenticity, ofrece una solución que utiliza la criptografía para codificar información sobre los orígenes de los contenidos, incluido si han sido generados o alterados por IA.
- Las empresas van a enfrentarse a muchos retos a la hora de gestionar los contenidos de IA, incluidos los problemas relacionados con el cumplimiento, la infracción de los derechos de autor y la necesidad de herramientas precisas de detección de IA.
- La orden ejecutiva es un buen paso, pero aún quedan obstáculos que superar para implantar métodos a prueba de manipulaciones.
¿Qué papel desempeña la marca de agua en la autenticación de contenidos?
La aparición de «deepfakes» y contenidos generativos de IA que pretenden engañar plantea un importante desafío técnico para las organizaciones y los reguladores.
Las marcas de agua y las herramientas de detección basadas en IA son las principales formas de identificar estos contenidos, pero son inconsistentes y pueden ser imprecisas.
El desarrollador de ChatGPT OpenAI cerró su clasificador de IA en julio de 2023, seis meses después de su lanzamiento, «debido a su baja tasa de precisión».
OpenAI dijo que la herramienta «no era totalmente fiable», ya que una prueba en un conjunto de textos en inglés mostró que el clasificador identificaba correctamente el 26% del texto escrito por IA como «probablemente escrito por IA», mientras que etiquetó incorrectamente el texto escrito por humanos como escrito por IA el 9% de las veces.
Más información: Las mejores herramientas de IA generativa
La mayoría de las herramientas de marca de agua incrustan un identificador invisible en un contenido para indicar su origen a un detector de marcas de agua. Las herramientas de autenticación de contenidos proporcionan información al espectador sobre el origen de un contenido, de forma similar a los metadatos.
Una posible solución es el proyecto Content Credentials, desarrollado por la Coalition for Content Provenance and Authenticity (C2PA), una organización interprofesional de desarrollo de normas creada por Adobe, Arm, Intel, Microsoft y Truepic.
Las credenciales de contenido son un protocolo de código abierto que utiliza criptografía para codificar información sobre el origen de un contenido, incluido si ha sido generado o alterado por IA. Los usuarios pueden cargar cualquier contenido para ver si ha sido etiquetado y, en caso afirmativo, cómo se ha modificado a lo largo del tiempo.
Sin embargo, como ocurre con otras formas de marca de agua, los creadores y editores de contenidos pueden optar voluntariamente por estas credenciales.
«La marca de agua es una solución problemática», explica a Techopedia Alon Yamin, cofundador y consejero delegado de la empresa de detección de contenidos por inteligencia artificial Copyleaks.
“¿Qué ocurre con los contenidos que no llevan marca de agua, cómo se puede saber la fuente exacta del contenido? Hay tantos tipos de contenidos -texto, imágenes, música, vídeos- que no hay una solución para todos.
“Es bueno centrarse específicamente en las marcas de agua, pero no es suficiente. La marca de agua es una opción y sin duda un paso en la dirección correcta. Pero si hay usuarios más sofisticados que intentan enmascarar el origen del documento y ocultar el plagio o la infracción de derechos de autor, hay formas de evitarlo”.
“Hay otras capacidades de detección diferentes que son relevantes aquí si quieres crear realmente una respuesta integral a estos nuevos desafíos”.
El reto técnico de la marca de agua
Copyleaks se centra en la detección de contenidos de IA para documentos de texto, que son más difíciles de marcar con agua que las imágenes y los vídeos a prueba de manipulaciones. “Es importante contar con soluciones que puedan detectar la IA independientemente del estado de la marca de agua”, afirma Yamin.
Copyleaks utiliza IA generativa para analizar texto y determinar si ha sido escrito por una herramienta de IA, parafraseado o plagiado. La empresa está en conversaciones con el gobierno de EE.UU. para contribuir a sus normas y al proceso de identificación y detección de contenidos generados por IA, dijo Yamin.
“Va a ser una tarea técnica difícil”, dijo a Techopedia el abogado Duane Pozza, socio de Wiley Rein.
“La marca de agua es un método técnico en torno a la autenticación de contenidos en el que van a trabajar.
“Se trata de un avance interesante porque el Departamento de Comercio se esfuerza por desarrollar normas que puedan utilizarse en toda la administración y servir de ejemplo al sector privado. Será un buen ejemplo si consiguen una norma sólida”.
La orden de la Casa Blanca encarga al Instituto Nacional de Normas y Tecnología (NIST) que establezca normas para comprobar la seguridad de los modelos de IA antes de su publicación. La experiencia del Instituto en la elaboración de normas técnicas lo sitúa en una posición idónea para dirigir los esfuerzos del Gobierno en este ámbito, señaló Pozza.
Tras la publicación de la orden ejecutiva, la Oficina de Gestión y Presupuesto (OMB) publicó un proyecto de política sobre el uso de la IA para la gobernanza, la innovación y la gestión de riesgos en los organismos públicos.
Esto no sólo servirá de ejemplo para las empresas y otras organizaciones, sino que orientará la forma en que los organismos públicos adquieren sistemas de IA -y productos que pueden verse afectados por ellos- del sector privado, dijo Pozza.
El reto de gestionar los contenidos de IA en las empresas
Para las empresas, la veracidad de los contenidos va más allá de la fuente de las imágenes compartidas en las redes sociales y se extiende a cuestiones relacionadas con el cumplimiento y la infracción de los derechos de autor.
Por ejemplo, los desarrolladores de software que utilizan chatbots generativos de IA, como ChatGPT, para agilizar el proceso de escritura y comprobación de código, pueden acabar utilizando inadvertidamente código protegido por derechos de autor o con licencia, para cuyo uso no tienen permiso.
dijo Yamin:
“Desde el punto de vista de la propiedad intelectual, esto es como un terremoto. Un problema como éste con el código simplemente no existía antes, y las empresas están empezando ahora a comprender estos retos”.
Las empresas deben plantearse varias cuestiones en torno al uso de la IA generativa: dónde se utiliza actualmente en la organización, dónde debería permitirse y si tienen la visibilidad y las capacidades necesarias para hacer cumplir la política que regula su uso.
«Le sorprendería saber que la mayoría de las empresas ni siquiera saben dónde se está utilizando la IA generativa», afirma Yamin. “Esto es muy problemático, por ejemplo, si tienes una presentación que alguien está creando en la empresa y que contiene información privada de la empresa. Si esta cubierta fue creada por AI, significa que la información fue compartida con un tercero que podría compartirla con otros.”
Esto se hizo evidente a principios de este año, cuando la empresa surcoreana de electrónica Samsung prohibió a sus empleados el uso de ChatGPT después de descubrir que el personal subió código fuente sensible y notas de reuniones internas al chatbot mientras lo usaban para ayudarles a agilizar las tareas.
Empresas como Amazon, JP Morgan y otros grandes bancos estadounidenses han impuesto restricciones similares. Por defecto, ChatGPT guarda todas sus interacciones con los usuarios y entrena sus modelos a partir del contenido que introducen.
Ahora ofrece la opción de desactivar esta función manualmente, pero hace recaer en los usuarios la responsabilidad de hacerlo antes de introducir la información. Las empresas también se enfrentan al reto de garantizar que las herramientas de detección de IA que utilizan sean lo más precisas posible.
“Si el contenido ha sido creado por IA, pero lo estamos categorizando como contenido humano, se trata de un error, pero no es un error enorme. Por otro lado, si un humano creó el documento y decimos que es IA, es una acusación grave, especialmente para las empresas que trabajan con organismos gubernamentales”, afirma Yamin.
Habrá que perfeccionar los métodos de marca de agua y los modelos de detección de IA para minimizar las posibilidades de que sean inexactos o se apliquen mal.
Lo esencial
La orden ejecutiva de la Casa Blanca que pide el desarrollo de marcas de agua y otros métodos de autenticación de contenidos para combatir el uso indebido de los contenidos generados por IA es un paso hacia la regulación de este sector en rápida evolución.
Sin embargo, la introducción de métodos sólidos y a prueba de manipulaciones plantea dificultades que los consumidores, las empresas y los organismos públicos deben comprender a la hora de manejar contenidos en todas sus formas.