L’organisation nationale britannique chargée de la prévention de la cruauté envers les enfants (NSPCC) a accusé Apple de ne pas avoir signalé les images pédo-pornographiques impliquant des enfants, selon The Guardian.
Apple a signalé 267 cas de diffusion d’images à caractères pornographiques impliquant des enfants sur ses services dans le monde entier entre avril 2022 et mars 2023, selon le Centre national américain des enfants disparus et exploités (NCMEC).
Cependant, selon les données de la police obtenues par le NSPCC, les prédateurs d’enfants au Royaume-Uni ont utilisé diverses technologies fournies par Apple telles que : iCloud, Facetime et iMessage pour sauvegarder et envoyer des images pédo-pornographiques. La plupart des photos ont été diffusées en Angleterre et au Pays de Galles au cours de la même période.
Les données recueillies dans le cadre des demandes de liberté d’information montrent qu’Apple a été impliqué dans 337 délits d’images d’abus d’enfants enregistrés en Angleterre et au Pays de Galles entre avril 2022 et mars 2023.
Ces chiffres restent bien inférieurs à ceux rapportés par d’autres grandes entreprises technologiques, Meta faisant état de plus de 30,6 millions d’infractions et Google d’environ 1,47 million d’infractions, selon le rapport annuel du NCMEC. Pour justifier cette importante différence, Apple pourrait invoquer le fait que son service de messagerie (iMessage) est un serveur crypté, et que le contenu des messages n’est donc pas visible et interceptable par le service de sécurité d’Apple. Mais il est peu vraisemblable que cet argument sera retenu comme valide car WhatsApp est également un service crypté et le nombre d’infractions comptabilisées sur la même période sur ce réseau est beaucoup plus élevé.
Toutes les entreprises technologiques basées aux États-Unis sont tenues de signaler tout cas de publication d’image pédo-pornographique détectée sur leurs plateformes au NCMEC, qui examine les rapports et les transmet aux organismes d’application de la loi compétents.
Richard Collard, responsable de la politique de sécurité des enfants en ligne au sein de la NSPCC, a souligné l’« écart préoccupant » entre le nombre d’abus commis sur des enfants britanniques sur les plateformes d’Apple et le nombre de signalements de publication d’images pédo-pornographiques effectués par Apple auprès des autorités, affirmant que l’entreprise était « clairement en retard » par rapport à ses pairs en ce qui concerne la lutte contre ce problème.
Apple reste muette sur cette affaire
Apple a refusé de se prononcer sur l’accusation de la NSPCC, renvoyant les personnes concernées à ses déclarations de 2023 concernant sa décision d’annuler un programme qui analysait les photos iCloud à la recherche de publications pédo-pornographiques, citant la nécessité de « donner la priorité à la sécurité et à la vie privée des utilisateurs ».
L’outil, neuralMatch, analysait les images des utilisateurs à la recherche d’images de pédophilie avant qu’elles ne soient téléchargées sur iCloud, en utilisant des valeurs de hachage pour les comparer à une base de données d’images d’abus d’enfants.
Bien que les défenseurs de la sécurité des enfants se soient opposés à l’abandon de ce projet, les groupes de défense des droits numériques se sont montrés satisfaits, car ils craignaient que cette pratique ne porte atteinte à la vie privée et à la sécurité des utilisateurs d’iCloud. À la place, Apple a mis en place une série de fonctions de sécurité de la communication pour aider à protéger les enfants contre la visualisation de photos nues en les rendant floues.
Apple Intelligence suscite des inquiétudes par rapport à la sécurité des enfants
Les inquiétudes suscitées par l’approche d’Apple en matière de publication d’images pédo-pornographiques prennent encore plus d’importance après l’annonce par l’entreprise du lancement d’Apple Intelligence en juin 2024. Des experts de la sécurité des enfants, dont Richard Collard, qualifient ce déploiement d’« inquiétant » et affirment qu’il pourrait mettre les enfants en danger.
Les modèles d’IA capables de créer des images pédo-pornographiques sont entraînés à l’aide d’images d’abus d’enfants « réels », ce qui signifie que les modèles et les images qu’ils génèrent participent à la victimisation d’enfants. En 2023, le NCMEC a reçu plus de 4 700 signalements d’images pédosexuels générés par l’intelligence artificielle, et à mesure que l’IA gagne en popularité, ce nombre devrait continuer à augmenter, ouvrant aussi la porte à des mesures de sécurité comme le contrôle parental.
Le rapport du Guardian qualifie Apple de « trou noir », s’inquiétant du fait que l’entreprise n’a pas de compétences particulières en matière de gestion des images sexuelles d’enfants sur ses plateformes et que cela représente un danger pour les enfants du monde entier.
Bien qu’Apple ne soit pas délibérément négligent, il est certainement révélateur de voir la différence entre les cas signalés de soupçons de violence sexuelle à l’égard des enfants parmi les grandes entreprises technologiques et de s’interroger sur le degré de transparence d’Apple à l’égard du problème.