Das undurchsichtige Schlachtfeld von Diebstahl geistigen Eigentums und KI

DAS WICHTIGSTE IM ÜBERBLICK

Die Überschneidung von KI und Rechten an geistigem Eigentum gewinnt zunehmend an Aufmerksamkeit, da es Bedenken hinsichtlich des potenziellen Diebstahls intellektuellen Eigentums durch KI gibt. Vor allem die jüngste Änderung der Zoom-Richtlinien hat die Verwendung von Nutzerdaten für das KI-Training in Frage gestellt. Autoren wie Sarah Silverman haben die Tech-Giganten OpenAI und Meta verklagt, weil sie ihre Werke unerlaubt für das Training von KI-Modellen genutzt haben sollen. Mit der Weiterentwicklung der KI wird das Gleichgewicht zwischen Innovation und Schutz des geistigen Eigentums immer wichtiger.

Im heutigen digitalen Zeitalter ist der Diebstahl von geistigem Eigentum im Bereich der künstlichen Intelligenz (KI) ein wachsendes Problem, wobei die Überschneidung von KI und Rechten an intellektuellem Eigentum zu erheblichen Diskussionen führt.

Mit der Weiterentwicklung von KI-Systemen und es gibt immer mehr davon können Inhalte produziert werden, die der menschlichen Kreativität ähneln.

Dies löst urheberrechtliche Bedenken aus, wobei viele aktuelle Kontroversen die Herausforderungen und Lösungen für Branchenführer und Juristen aufzeigen.

Zoom-Kontroverse und mehr

Wegen einer im März vorgenommenen Änderung der Allgemeinen Geschäftsbedingungen (AGBs) wurde Zoom unter die Lupe genommen.

Die Anpassung blieb weitgehend unbemerkt … bis jemand auf die Richtlinienaktualisierung in einem Beitrag hinwies, der auf Hacker News schnell Aufmerksamkeit erregte.

Mit dieser Anpassung erhielt Zoom das ausschließliche Recht, Nutzerdaten für das Training zukünftiger KI-Module zu verwenden.

Konkret beanspruchte Zoom eine unbefristete, weltweite, nicht-exklusive, gebührenfreie, unterlizenzierbare und übertragbare Nutzungsberechtigung für die Daten der User.

Viele glaubten, dies schließe auch Videoanrufe und Benutzernachrichten ein, was negative Reaktionen im Internet auslöste.

Nach dem Eklat stellte Zoom seine Position in einem Blogbeitrag klar und versicherte den Nutzern, dass es keine Videokonferenzdaten für das KI-Training verwendet. Es hat seine AGBs entsprechend aktualisiert.

Zoom verwendet keine Ihrer Audio-, Video-, Chat-, Bildschirmfreigabe-, Anhänge oder andere kommunikationsähnliche Kundeninhalte (z. B. Umfrageergebnisse, Whiteboard und Reaktionen), um Modelle der künstlichen Intelligenz von Zoom oder Dritten zu trainieren.

Diese Verpflichtung ist in den Allgemeinen Geschäftsbedingungen in Abschnitt 10 enthalten.

Außerdem wies Zoom darauf hin, dass Kontoinhaber und Administratoren die Kontrolle über die Aktivierung der beiden KI-Funktionen haben.

Diese Features, Zoom IQ Meeting Summary und Zoom IQ Team Chat Compose, verbessern das Zoom-Erlebnis, indem sie automatische Meeting-Zusammenfassungen und KI-gestützte Chat-Kompositionen anbieten.

Zoom stellt zudem sicher, dass die Teilnehmer über die Benutzeroberfläche wissen, wann diese KI-Dienste aktiv sind.

Wachsendes Problem der genAI und des Diebstahls geistigen Eigentums

Wie in der Zoom-Kontroverse dargelegt, markiert der rasche Fortschritt der KI ein neues technologisches Zeitalter.

Diese Entwicklungen bringen jedoch auch bemerkenswerte Herausforderungen mit sich, insbesondere im Hinblick auf das geistige Eigentum.

KI-Modelle werden ständig verbessert, und je mehr sie sich durchsetzen, desto schwieriger wird es, zwischen Innovation und Rechtsverletzung zu unterscheiden.

Diebstahl geistigen Eigentums: Silverman, Golden, Kadrey vs. OpenAI & Metas Modelle

Eine von der US-Autorin Sarah Silverman eingereichte Klage gegen OpenAI und Meta verdeutlicht dieses Dilemma.

Silverman und die Autoren Christopher Golden und Richard Kadrey haben den Vorwurf des Diebstahls geistigen Eigentums erhoben.

Sie behaupten, dass ihre urheberrechtlich geschützten Werke ohne Zustimmung zum Training von KI-Modellen herangezogen wurden.

ChatGPT von OpenAI und LLaMA von Meta stehen im Mittelpunkt dieses Rechtsstreits. Die großen Sprachmodelle (LLMs), die auf riesigen Internet-Datenbeständen trainiert wurden, haben Berichten zufolge urheberrechtlich geschütztes Material ohne Erlaubnis verwendet, wie z. B. Silvermans The Bedwetter, Goldens Ararat und Kadreys Sandman Slim.

Die Kläger bezeichneten die mutmaßlichen Verstöße bzw. die Tools, die sie einsetzten, als industrielle Plagiatoren, die die Rechte von Buchautoren verletzen.

Schattenbibliotheken machen die Sache noch komplizierter. Diese Plattformen bieten viele urheberrechtlich geschützte Bücher und Inhalte an, vielleicht versteckt hinter einer Bezahlschranke oder anderen Zugangshindernissen.

In den Klagen werden sie „eklatant illegal“ genannt. Es wird behauptet, dass das Material der Autoren über diese Schattenbibliotheken beschafft wurde, um die fraglichen Modelle zu trainieren.

Die Bedenken sind nicht auf bestimmte Autoren beschränkt. Die Rechtsvertreter Joseph Saveri und Matthew Butterick berichten von weit verbreiteten Sorgen.

Viele Autoren und Verleger äußern sich beunruhigt darüber, dass die KI-Tools auffällig viel Text produzieren können, der urheberrechtlich geschütztem Material ähnelt und Tausende von Büchern umfasst.

Diebstahl geistigen Eigentums: Andersen, McKernan, Ortiz vs. Stability AI, DeviantArt & Midjourney

Im Januar 2023 reichten die gleichen Rechtsvertreter im Namen von Sarah Andersen, Kelly McKernan und Karla Ortiz eine Sammelklage gegen Stability AI, DeviantArt und Midjourney ein.

Darin wird die Verwendung von Stable Diffusion beanstandet, einem Collage-Tool des 21. Jahrhunderts, das die urheberrechtlich geschützten Werke von Millionen von Künstlern, deren Arbeiten als Trainingsdaten verwendet wurden, neu mischt.

Während einer Anhörung in San Francisco am 19. Juli deutete der US-Bezirksrichter William Orrick an, dass er die Klage größtenteils abweisen werde. Er erwähnte jedoch, dass sie eine überarbeitete Beschwerde einreichen könnten.

Orrick betonte, dass die Künstler ihre Anschuldigungen gegen Stability AI, Midjourney und DeviantArt präzisieren und differenzieren müssen.

Zudem wies er darauf hin, dass sie detailliertere Beweise für die angeblichen Urheberrechtsverletzungen vorlegen sollten, zumal sie Zugang zum einschlägigen Quellcode von Stability haben.

Andernfalls scheint es unwahrscheinlich, dass es sich um ihre Werke handelt, sagte Orrick. 

Er merkte an, dass die Systeme auf fünf Milliarden komprimierten Bildern trainiert worden seien.

Das Problem liegt in der wesentlichen Ähnlichkeit zwischen Originalwerken und KI-Outputs, da herkömmliche Urheberrechtsansprüche einen direkten Vergleich zwischen dem Original und dem offensichtlich verletzenden Werk erfordern. Dies wird bei KI-Inhalten unklar.

Letztlich steht der Rechtsbereich aufgrund des raschen Wachstums der KI vor Herausforderungen. Bemerkenswerte Klagen, wie die von Sarah Silverman und anderen Künstlern, zeigen die Unzulänglichkeiten der aktuellen Urheberrechtsgesetze auf.

Diese Rechtsvorschriften, die vor dem Aufstieg der KI geschaffen wurden, sehen sich nun mit neuen KI-bezogenen Problemen konfrontiert.

Die Entwicklung dieser Fälle macht deutlich, dass in der heutigen KI-getriebenen Welt dringend Gesetze zur Bekämpfung des Diebstahls geistigen Eigentums erforderlich sind.

Öffentliche Meinung zu KI-Kunst und Diebstahl geistigen Eigentums

Außerhalb des Gerichtssaals hat die rasante Entwicklung der KI eine breite öffentliche Diskussion ausgelöst. Angesichts der zunehmenden Schaffung von Kunst, Musik und mehr durch KI stellen sich Fragen zu Urheberrecht und Originalität.

Eine aktuelle Umfrage von The Verge beleuchtet die öffentliche Meinung über KI-Kunst und hebt die Bedenken über Urheberrechtsfragen und den Diebstahl geistigen Eigentums hervor.

Diebstahl geistigen Eigentums: ethisches Dilemma

KI-Bildgeneratoren stehen im Mittelpunkt der Diskussionen über den Diebstahl geistigen Eigentums.

Diese Tools verwenden große Datensätze, oft aus dem Internet, ohne die ausdrückliche Zustimmung der ursprünglichen Urheber.

Quelle: The Verge

Die Umfrage zeigt, dass die öffentliche Meinung zu diesen ethischen Fragen geteilt ist. So sind 70 % der Ansicht, dass Künstler eine Entschädigung verdienen, wenn eine KI ihren Stil nachahmt. 43 % glauben jedoch, dass Unternehmen KI daran hindern sollten, abgeleitete Werke zu erstellen.

Inzwischen geben 44 % zu, dass sie KI nutzen, um den Stil oder die Stimme eines bekannten Künstlers oder Schriftstellers zu imitieren.

Ruf nach besseren KI-Normen

Die öffentliche Meinung spricht sich eindeutig für strengere Normen und Vorschriften für KI aus. 78 % der Umfrageteilnehmer glauben, dass KI-erstellte digitale Inhalte offengelegt werden sollten.

76 % meinen, dass es Gesetze für die KI-Entwicklung geben sollte. Ihrer Ansicht nach sollten KI-Modelle auf verifizierten Datensätzen trainiert werden.

Ebenfalls 76 % sind der Meinung, dass die Erstellung von Video- und Audio-Fälschungen, die echte Personen ohne deren Zustimmung imitieren, illegal sein sollte.

Gesellschaftliche Folgen der KI: gemischte Emotionen

Die Umfrage zeigt gemischte Gefühle über die potenziellen Auswirkungen der KI auf die Gesellschaft.

Quelle: The Verge

Während 63 % der Befragten den Verlust von Arbeitsplätzen befürchten, sind 68 % der Meinung, dass die Privatsphäre gefährdet ist, während 67 % einen Missbrauch durch Regierungen und Unternehmen vermuten.

Auf der positiven Seite steht der Optimismus für Durchbrüche wie neue medizinische Behandlungen (51 %) und Möglichkeiten für wirtschaftliches Wachstum (51 %).

Bei der Frage nach dem gesellschaftlichen Einfluss der KI waren die Teilnehmer nahezu gleichmäßig zwischen Besorgnis und Begeisterung aufgeteilt, wobei viele beide Gefühle empfanden.

Zusammenfassend lässt sich sagen, dass die Gesellschaft mit komplizierten ethischen Fragen konfrontiert ist, da KI die Grenzen zwischen menschlicher Kreativität und maschinell erzeugten Inhalten immer weiter verwischt.

Die Dringlichkeit robuster Vorschriften und eines umfassenden Verständnisses des Potenzials und der Risiken von KI war noch nie so groß wie heute.

Entschärfung von Urheberrechtsfragen in der KI

Wie bereits hervorgehoben wurde, hat der rasche Aufstieg von KI die Besorgnis über Urheberrechtsverletzungen verstärkt.

Mit KI-Modellen, die auf riesigen Internetdaten trainiert werden, steigt das Risiko der versehentlichen Nutzung urheberrechtlich geschützter Inhalte ohne entsprechende Genehmigung.

Dennoch unternehmen viele Organisationen Schritte zur Lösung dieser Probleme.

Sie wollen sicherstellen, dass KI-generierte Inhalte die Rechte an geistigem Eigentum einhalten und das Risiko des Diebstahls verringern.

Adobe Firefly: Schritt in die richtige Richtung

Adobe, ein führender Anbieter von Lösungen für digitale Medien, hat Firefly auf den Markt gebracht, ein KI-gesteuertes Tool für die Bilderstellung. Firefly zeichnet sich durch seinen Datentrainingsansatz aus.

Statt Daten auf breiter Basis aus dem Internet zu ziehen, sorgt Adobe dafür, dass die Firefly-Trainingsdaten frei von Urheberrechtsproblemen sind.

Dazu wird ein Datensatz aus Adobe Stock verwendet, zusammen mit frei lizenzierten Werken und gemeinfreien Inhalten, deren Urheberrecht abgelaufen ist. Diese Methode verringert das Risiko des Diebstahls von geistigem Eigentum erheblich.

Adobe ist sich der rechtlichen Herausforderungen bewusst, die mit KI-Inhalten verbunden sind, und bietet seinen Unternehmenskunden eine weitere Schutzschicht.

Es stellt eine Entschädigung bereit, d. h. ein Versprechen, die Kosten für bestimmte potenzielle Klagen oder Ansprüche gegen seine Kunden zu übernehmen.

Diese Maßnahme zeigt nicht nur das Vertrauen von Adobe in Firefly, sondern erhöht auch die Sicherheit für Unternehmen, die das Tool nutzen.

Nvidia Picasso: Partnerschaften für lizenzierte Daten

Nvidia, bekannt für seine Fortschritte in den Bereichen KI und Grafik, hat mit Picasso eine Plattform für generatives visuelles KI-Design vorgestellt.

Picasso bietet ein dynamisches Framework zum Erstellen, Anpassen und Ausrollen von KI-Modellen für verschiedene visuelle Designaufgaben, die Bild-, Video- und 3D-Inhalte umfassen.

Zur Förderung der Datenintegrität hat Nvidia wichtige Partnerschaften mit Adobe, Getty Images und Shutterstock geschlossen. Diese Allianzen verfolgen das Ziel, die KI-Modelle von Picasso nur anhand lizenzierter Daten zu trainieren.

So arbeiten Nvidia und Shutterstock zusammen, um Modelle zu entwickeln, die 3D-Assets aus lizenzierten Materialien erstellen.

Solche Partnerschaften unterstreichen den Bedarf an lizenzierten Daten für das Modelltraining, den Schutz vor dem Diebstahl von geistigem Eigentum und die Einhaltung von Urheberrechtsnormen.

Copyleaks: Erkennung nicht lizenzierter Inhalte in KI-generiertem Text

Im Bereich der Textgenerierung stellt Copyleaks ein Tool vor, mit dem sich unlizenzierte Inhalte in KI-Ausgaben erkennen lassen. Mit dieser Plattform soll die Nutzung generativer KI überwacht und urheberrechtliche Risiken aufgezeigt werden.

Mit einer Cloud-basierten Struktur gewährleistet Copyleaks höchste Sicherheit durch robuste Verschlüsselung.

Angesichts der aktuellen Entwicklung im Bereich der künstlichen Intelligenz (KI), in der umfangreiche Sprachmodelle wie ChatGPT Texte erzeugen können, die urheberrechtlich geschützte Inhalte widerspiegeln, sind Tools wie Copyleaks von entscheidender Bedeutung.

Mit ihrer Hilfe können Unternehmen sicherstellen, dass ihre KI-generierten Inhalte nicht gegen das Urheberrecht verstoßen.

Fazit

Die rasante Entwicklung der KI-Technologien bringt Chancen und Hürden mit sich, insbesondere in Bezug auf den Diebstahl geistigen Eigentums.

Die für Menschen geschaffenen Rechtsvorschriften, die Menschen kopieren, werden sich an diese neue Welt anpassen müssen.

Eine ausgewogene Strategie zur Förderung von Innovation und zum Schutz der Rechte an geistigem Eigentum wird für die nahtlose Verschmelzung von KI und menschlicher Kreativität unerlässlich sein.

Verwandte Begriffe

Maria Webb

Maria Webb ist eine erfahrene Contentspezialistin mit mehr als 5 Jahren Erfahrung im Journalismus und arbeitet derzeit als Technologiejournalistin für Business2Community und Techopedia, wobei sie sich auf datengestützte Artikel spezialisiert hat. Ihr besonderes Interesse gilt den Themen KI und Posthumanismus. Marias journalistische Laufbahn umfasst zwei Jahre als Statistikjournalistin bei Eurostat, wo sie überzeugende datenzentrierte Nachrichtenartikel verfasste, und drei Jahre bei Newsbook.com.mt, wo sie über lokale und internationale Nachrichten berichtete.