En la era digital actual, el robo de propiedad intelectual en el ámbito de la inteligencia artificial (IA) es una preocupación creciente, y la superposición de la IA y los derechos de propiedad intelectual suscita un debate importante.
A medida que avanzan los sistemas de IA -y cada vez hay más-, pueden producir contenidos parecidos a la creatividad humana, lo que lleva a plantearse cuestiones sobre los derechos de autor, con muchas controversias recientes que ponen de relieve los retos y las soluciones a los que se enfrentan los líderes del sector y los profesionales del derecho.
- Ver más
La polémica de Zoom y más allá
La semana pasada, Zoom se enfrentó al escrutinio por un cambio en sus Condiciones de Servicio (CDS) realizado en marzo. El cambio pasó desapercibido en gran medida… hasta que alguien destacó el cambio de política en un post que rápidamente llamó la atención en Hacker News.
La alteración de Zoom le concedía derechos exclusivos para utilizar los datos de los usuarios para entrenar futuros módulos de IA. En concreto, Zoom reclamaba una “licencia perpetua, mundial, no exclusiva, exenta de cánones, sublicenciable y transferible” sobre los datos de los usuarios. Muchos creyeron que esto incluía las videollamadas y los mensajes de los usuarios, lo que provocó reacciones negativas en Internet.
Tras la reacción, Zoom aclaró su posición en una entrada de blog, asegurando a los usuarios que no utilizaba datos de videoconferencias para el entrenamiento de IA. Actualizó sus condiciones de servicio para reflejarlo.
Zoom no utiliza ninguno de tus archivos de audio, vídeo, chat, pantalla compartida, archivos adjuntos u otras comunicaciones como Contenido del Cliente (como resultados de encuestas, pizarras y reacciones) para entrenar modelos de inteligencia artificial de Zoom o de terceros.
Este compromiso figura en sus condiciones de servicio, en la Sección 10.
Zoom también señaló que los propietarios y administradores de cuentas tienen control sobre la activación de sus dos funciones de IA. Estas funciones, Zoom IQ Meeting Summary y Zoom IQ Team Chat Compose, mejoran la experiencia de Zoom ofreciendo resúmenes automatizados de las reuniones y composiciones de chat basadas en IA.
Zoom también se asegura de que los participantes sepan a través de la interfaz de usuario cuándo están activos estos servicios de IA.
El creciente problema de la IA generativa y el robo de propiedad intelectual
Como se desprende de la polémica de Zoom, la rápida progresión de la IA marca una nueva era tecnológica. Sin embargo, estos avances conllevan retos notables, especialmente en lo que se refiere a la propiedad intelectual.
Los modelos de IA evolucionan y, a medida que se generalizan, resulta difícil distinguir entre innovación e infracción.
Robo de propiedad intelectual: Silverman, Golden, Kadrey contra OpenAI y los modelos de Meta
Una reciente demanda de la autora estadounidense Sarah Silverman contra OpenAI y Meta pone de manifiesto este dilema. Silverman y los autores Christopher Golden y Richard Kadrey alegan robo de propiedad intelectual, alegando que sus obras protegidas por derechos de autor se utilizaron para entrenar modelos de IA sin consentimiento.
ChatGPT de OpenAI y LLaMA de Meta son fundamentales en esta demanda. Estos grandes modelos lingüísticos (LLM), entrenados en vastos conjuntos de datos de Internet, supuestamente utilizaron sin permiso materiales protegidos por derechos de autor, como “The Bedwetter” de Silverman, “Ararat” de Golden y “Sandman Slim” de Kadrey.
Los demandantes calificaron las supuestas infracciones, o concretamente las herramientas que las utilizaban, de “plagios industriales que violan los derechos de los autores de libros”.
Los sitios de “bibliotecas en la sombra” añaden complejidad al asunto. Estas plataformas proporcionan muchos libros y contenidos protegidos por derechos de autor, quizá ocultos tras un muro de pago u otras barreras de entrada, y las demandas las describen como “flagrantemente ilegales”. Las demandas alegan que los materiales de los autores se obtuvieron a través de estas bibliotecas en la sombra para entrenar los modelos en cuestión.
Las preocupaciones no se limitan a unos pocos autores. Los representantes legales Joseph Saveri y Matthew Butterick informan de preocupaciones generalizadas, y muchos escritores y editores expresan su inquietud por la sorprendente capacidad de las herramientas de IA para producir textos parecidos a materiales protegidos por derechos de autor, que abarcan miles de libros.
Robo de propiedad intelectual: Andersen, McKernan, Ortiz contra Stability AI, DeviantArt y Midjourney
En enero de 2023, los mismos representantes legales presentaron la demanda colectiva contra Stability AI, DeviantArt y Midjourney en nombre de Sarah Andersen, Kelly McKernan y Karla Ortiz. La demanda protesta por el uso de Stable Diffusion, una herramienta de collage del siglo XXI que remezcla las obras protegidas por derechos de autor de millones de artistas cuyas obras se utilizaron como datos de entrenamiento.
Durante una vista celebrada en San Francisco el 19 de julio, el juez de distrito estadounidense William Orrick se inclinó por desestimar la mayor parte de la demanda. Sin embargo, mencionó que podían presentar una demanda revisada.
Orrick hizo hincapié en que los artistas deben aclarar y distinguir sus alegaciones contra Stability AI, Midjourney y DeviantArt. También señaló que deberían presentar pruebas más detalladas sobre las supuestas violaciones de los derechos de autor, sobre todo teniendo en cuenta que pueden acceder al código fuente pertinente de Stability.
“De lo contrario, parece inverosímil que sus obras estén implicadas”, dijo Orrick. Señaló que los sistemas se han entrenado con “5.000 millones de imágenes comprimidas”.
La cuestión radica en la “similitud sustancial” entre las obras originales y los resultados de la IA, ya que las reclamaciones tradicionales de derechos de autor requieren una comparación directa entre la obra original y la aparentemente infractora. Esto se vuelve poco claro con el contenido de IA.
En última instancia, el ámbito jurídico se enfrenta a retos debido al rápido crecimiento de la IA. Demandas notables, como las de Sarah Silverman y otros artistas, ponen de manifiesto las deficiencias de las actuales leyes de derechos de autor. Estas leyes, elaboradas antes del auge de la IA, se enfrentan ahora a nuevos problemas relacionados con la IA. A medida que estas situaciones avanzan, ponen de manifiesto la urgente necesidad de leyes que aborden el robo de la propiedad intelectual en el mundo actual impulsado por la IA.
La opinión pública sobre el arte de la IA y el robo de propiedad intelectual
Fuera de los tribunales, el rápido crecimiento de la IA ha suscitado amplios debates entre el público. A medida que la IA empieza a crear arte, música y mucho más, surgen preguntas sobre los derechos de autor y la originalidad. Una encuesta reciente de The Verge arroja luz sobre las opiniones del público acerca del arte de la IA, destacando las preocupaciones sobre los derechos de autor y el robo de la propiedad intelectual.
Robo de propiedad intelectual: El dilema ético
Los generadores de imágenes de IA están en el centro de los debates sobre el robo de propiedad intelectual. Estas herramientas utilizan grandes conjuntos de datos, a menudo de la web, sin el consentimiento explícito de los creadores originales.
La encuesta muestra que la opinión pública está dividida sobre estas cuestiones éticas. En particular, el 70% cree que los artistas merecen una compensación si una IA imita su estilo. Sin embargo, el 43% cree que las empresas deberían impedir que la IA haga obras derivadas.
Mientras tanto, el 44% confiesa haber utilizado IA para imitar el estilo o la voz de un artista o escritor conocido.
La petición de mejores normas para la IA
La opinión pública está claramente a favor de normas y reglamentos más estrictos para la IA, con un significativo 78% de los participantes en la encuesta que opinan que el contenido digital creado con IA debería llevar una declaración.
Además, el 76% cree que debería haber leyes que regulen el desarrollo de la IA. Creen que los modelos de IA deberían entrenarse en conjuntos de datos verificados. Igualmente, el 76% opina que debería ser ilegal crear falsificaciones profundas de vídeo y audio imitando a personas reales sin su aprobación.
La encuesta revela sentimientos encontrados sobre los posibles efectos de la IA en la sociedad.
Robo de propiedad intelectual: Gráfico proporcional que muestra los sentimientos de la gente sobre el impacto de la IA en la sociedad
Mientras que la preocupación por la pérdida de empleo se sitúa en el 63%, las amenazas a la privacidad alcanzan el 68%, y el temor a un uso indebido por parte de gobiernos y empresas llega al 67%. El lado positivo es el optimismo ante avances como nuevos tratamientos médicos (51%) y vías de crecimiento económico (51%).
En cuanto a la influencia social de la IA, los participantes mostraron una división casi equitativa entre aprensión y entusiasmo, y muchos experimentaron ambas emociones.
En conclusión, la sociedad se enfrenta a intrincadas cuestiones éticas a medida que la IA sigue difuminando los límites entre la creatividad humana y el contenido generado por las máquinas. Nunca ha sido tan urgente una normativa sólida y un conocimiento exhaustivo del potencial y los riesgos de la IA.
Mitigar los problemas de derechos de autor en la IA
Como se ha destacado hasta ahora, el rápido ascenso de la IA ha amplificado la preocupación por las violaciones de los derechos de autor. Con modelos de IA que se entrenan en vastos datos de Internet, aumenta el riesgo de utilizar inadvertidamente contenidos protegidos por derechos de autor sin la debida autorización.
Sin embargo, muchas empresas están tomando medidas para abordar estos problemas. Su objetivo es garantizar que los contenidos generados por IA respeten los derechos de propiedad intelectual y reduzcan el riesgo de robo de propiedad intelectual.
Firefly de Adobe: Un paso en la dirección correcta
Adobe, uno de los principales nombres en soluciones de medios digitales, ha lanzado recientemente Firefly, una herramienta de generación de imágenes basada en IA. Firefly destaca por su enfoque de formación de datos. En lugar de extraer datos ampliamente de la web, Adobe se asegura de que los datos de entrenamiento de Firefly estén libres de problemas de derechos de autor utilizando un conjunto de datos de Adobe Stock, junto con obras de licencia abierta y contenidos de dominio público cuyos derechos de autor hayan expirado. Este método reduce enormemente las posibilidades de robo de propiedad intelectual.
Además, consciente de los retos legales vinculados a los contenidos creados por IA, Adobe ofrece otra capa de protección a sus clientes empresariales. Proporciona indemnización, que es una promesa de asumir el coste de determinadas demandas o reclamaciones potenciales contra sus clientes. Este paso no sólo demuestra la confianza de Adobe en Firefly, sino que también aumenta la seguridad de las empresas que utilizan la herramienta.
Nvidia Picasso: asociación para datos con licencia
Nvidia, famosa por sus avances en IA y gráficos, presentó Picasso, una plataforma adaptada al diseño visual de IA generativa. Picasso ofrece un marco dinámico para crear, adaptar y desplegar modelos de IA para diversas tareas de diseño visual, que abarcan contenidos de imagen, vídeo y 3D.
Para defender la integridad de los datos, Nvidia ha forjado alianzas clave con Adobe, Getty Images y Shutterstock. Estas alianzas tienen como objetivo entrenar los modelos de IA de Picasso utilizando únicamente datos con licencia. Por ejemplo, Nvidia y Shutterstock están colaborando para crear modelos que produzcan activos 3D a partir de materiales con licencia.
Estas asociaciones subrayan la necesidad de datos con licencia en el entrenamiento de modelos, la protección contra el robo de propiedad intelectual y la defensa de las normas de derechos de autor.
Copyleaks: Detección de contenidos sin licencia en textos generados por IA
En la generación de textos, Copyleaks presenta una herramienta para detectar contenidos sin licencia en los resultados de la IA. El objetivo de esta plataforma es supervisar el uso de la IA generativa y detectar los riesgos para los derechos de autor.
Utilizando una estructura basada en la nube, Copyleaks garantiza la máxima seguridad mediante un cifrado robusto. Dado el panorama actual de la IA, en el que los modelos lingüísticos expansivos, como ChatGPT, pueden producir textos que reflejen contenidos protegidos por derechos de autor, herramientas como Copyleaks resultan vitales.
Ayudan a las empresas a confirmar que sus contenidos generados por IA se mantienen alejados de los problemas de derechos de autor.
Lo esencial
La rápida evolución de las tecnologías de IA conlleva oportunidades y obstáculos, especialmente en lo que se refiere al robo de propiedad intelectual, y la legislación creada para humanos que copian a humanos tendrá que adaptarse a este nuevo mundo.
De cara al futuro, una estrategia equilibrada que promueva la innovación y salvaguarde los derechos de propiedad intelectual será vital para que la IA y la creatividad humana se combinen a la perfección.