Die Empörung der Adobe Nutzer/innen ist groß, nachdem das Unternehmen kürzlich seine Nutzungsbedingungen aktualisiert hat.
Die neuen Bedingungen, die im Februar still und leise eingeführt wurden, aber erst in den letzten Tagen in Kraft getreten sind, scheinen Adobe weitreichende Rechte einzuräumen, um auf die Inhalte der Nutzer/innen zuzugreifen und diese zu analysieren, einschließlich von Projekten, die unter Geheimhaltungsvereinbarungen (NDAs) fallen.
In der umstrittenen Klausel heißt es, dass Adobe “sowohl automatisiert als auch manuell auf deine Inhalte zugreifen kann”, wobei “Inhalte” definiert werden als Text, Audio, Video, Bilder oder andere Materialien, die mit den Diensten und der Software von Adobe erstellt wurden. Nach Ansicht der Nutzerinnen und Nutzer geben die Bedingungen Adobe auch das ausdrückliche Recht, Techniken wie maschinelles Lernen zu verwenden, um diese nutzergenerierten Inhalte zu analysieren, was Spekulationen nährt, dass das Unternehmen sie für das Training seiner KI-Modelle verwenden will.
Adobes Schritt, beliebte Anwendungen wie Photoshop und Substance 3D zu sperren, bis die Nutzer/innen den neuen Bedingungen zustimmen, hat die Unzufriedenheit nur noch weiter angeheizt. Obwohl die Nutzer/innen die Möglichkeit haben, sich gegen die Nutzung der Inhaltsanalyse zu entscheiden, behält sich Adobe das Recht vor, diese Präferenzen unter “bestimmten Umständen” außer Kraft zu setzen.
Einige Nutzer/innen haben bereits auf X ihr Unverständnis über diese Richtlinien geäußert. Einer von ihnen forderte die Nutzerinnen und Nutzer auf, ihr Abonnement zu kündigen, bis Adobe die Nutzungsbedingungen ändere.
Auf Anfrage von Techopedia verwies ein Sprecher von Adobe auf einen Blogeintrag, in dem die Bedingungen erläutert werden. Das Unternehmen erklärte, dass es den Zugang zu den Inhalten nur benötige, um seine Software und Dienstleistungen zu betreiben und die gesetzlichen Bestimmungen einzuhalten. Das Unternehmen betonte, dass es die generative KI Firefly nicht auf die Inhalte der Nutzer trainiere und keine Eigentumsrechte an den Arbeiten der Nutzer beanspruche.
Dieser Vorfall ist der jüngste in einer Reihe von PR-Krisen, mit denen sich große Software-as-a-Service (SaaS)-Anbieter aufgrund von erzwungenen Laufzeit-Updates konfrontiert sahen, die oft durch die Integration generativer KI-Funktionen ausgelöst wurden. Microsoft, Slack und Dropbox wurden in den letzten Monaten für ähnliche Maßnahmen kritisiert.
In einer ihrer jüngsten Warnungen an Unternehmen und KI-Entwickler warnte die US-amerikanische Federal Trade Commission (FTC), dass eine heimliche Änderung der Nutzungsbedingungen unfair oder irreführend sein könnte. Die FTC wies auch darauf hin, dass die Weitergabe von Verbraucherdaten an Dritte oder KI-Trainingssysteme und die Information der Verbraucher/innen über diese Änderung nur durch eine rückwirkende Änderung der Geschäftsbedingungen erfolgen kann.
Es ist klar, dass Daten für jedes Unternehmen, das KI in seine Produkte einbauen will, von entscheidender Bedeutung sind, aber die Unternehmen müssen auch einen Weg finden, die Privatsphäre der Nutzer/innen durch transparente Praktiken und festgelegte Richtlinien zu schützen.