Wie das Wall Street Journal berichtet, wurde festgestellt, dass Instagram Teenagern im Alter von 13 Jahren sexuell eindeutige Reels empfiehlt.
Über einen Zeitraum von sieben Monaten, der im Juni 2024 endete, führten das WSJ und Professorin Laura Edelson von der Northeastern University getrennte Tests durch, bei denen neue Instagram-Konten erstellt wurden, bei denen das Alter der Nutzer auf 13 Jahre festgelegt wurde.
Von dem Moment an, in dem diese Konten erstellt wurden, wurden den Teenagern moderat sexuelle Videos angeboten, wobei die ersten sexuellen Inhalte nur drei Minuten nach der Eröffnung des neuen Kontos auftauchten. Diese Inhalte konzentrierten sich auf weibliche Körper oder zeigten sinnliche Tänze.
Konten, die sich diese Videos ansahen, erhielten dann Empfehlungen für noch explizitere Inhalte, die innerhalb von 20 Minuten nach der Kontoeröffnung eintrafen, darunter Frauen, die sexuelle Handlungen nachahmten, und Nutzer, die Nacktfotos für jeden versprachen, der einen Kommentar hinterließ.
Der Algorithmus hinter Instagrams Reels funktioniert zum Teil dadurch, dass er die Interessen der Nutzer auf der Grundlage der von ihnen am häufigsten angesehenen Videos bewertet und ähnliche Inhalte empfiehlt.
Edelson und das WSJ führten die gleichen Tests mit Snapchat und TikTok durch. Keines der beiden Unternehmen empfahl jedoch sexuelle Inhalte für Teenager-Accounts. Selbst die Suche nach sexuellen Inhalten und das Verfolgen von Autoren, die solche Inhalte produzieren, führte nicht zu Empfehlungen für sexuelle Videos. Edelson merkte an, dass die nicht jugendfreien Inhalte auf TikTok weit weniger explizit zu sein schienen als die Inhalte, die Teenagern auf Instagram Reels angeboten wurden.
Meta ist sich des Instagram-Problems bereits bewusst
Laut WSJ ist dies nicht das erste Mal, dass Meta auf dieses Problem gestoßen ist. Im Jahr 2021 führte das Sicherheitsteam des Unternehmens den gleichen Test mit ähnlichen Ergebnissen durch. Damals spielte Meta-Sprecher Andy Stone die Ergebnisse herunter und sagte, das Experiment spiegele nicht wider, wie Jugendliche Instagram nutzten. Er behauptete auch, dass Meta “etablierte” Maßnahmen ergriffen habe, um die erwachsenen Inhalte, denen Jugendliche auf der Plattform begegnen könnten, zu reduzieren.
Im Jahr 2022 untersuchte das WSJ eine interne Analyse von Meta, aus der hervorging, dass der Social-Media-Riese sich seit langem bewusst ist, dass Instagram jugendlichen Nutzern mehr nicht jugendfreie Inhalte wie Gore und Pornografie zeigt als Erwachsenen. Die Analyse ergab, dass Teenager dreimal mehr verbotene Nacktfotos sahen als Nutzer über 30.
In den Meta-Richtlinien heißt es, dass Nutzern unabhängig von ihrem Alter keine sexuell anzüglichen Inhalte empfohlen werden sollten, es sei denn, sie stammen von Accounts, denen sie bereits folgen.
Datenschutz-Updates von Instagram für Teenager
Im Januar führte das Unternehmen Datenschutz-Updates zum Schutz jüngerer Nutzer ein und fügte die restriktivste Einstellung für Teenager-Accounts als Standard hinzu. Nach diesen Datenschutz-Updates sollten Teenager unter 16 Jahren überhaupt keine sexuell expliziten Inhalte mehr sehen.
Im April begann Instagram mit dem Test einer Funktion, die automatisch Nacktfotos unkenntlich macht, die per DM an Jugendliche gesendet werden. Im Mai wurde die Limits-Funktion der Plattform als Standardeinstellung eingeführt, die Interaktionen von Jugendlichen auf enge Freunde beschränkt und andere Nutzer stummschaltet, um Mobbing und Belästigung auf der Plattform zu reduzieren.
Die von WSJ und Edelson durchgeführten Experimente setzten sich auch nach der Einführung dieser Updates fort, was darauf hindeuten könnte, dass Meta immer noch nicht genug für die Sicherheit jüngerer Nutzer tut.