Au Royaume-Uni, Apple est accusé de ne pas faire grand chose contre la pédopornographie
Les experts britanniques du National Society for the Prevention of Cruelty to Children (NSPCC) affirment dans un rapport au vitriol qu’Apple ne surveille pas efficacement ses plateformes ni ne scanne les images et vidéos d’abus sexuels sur enfants (CSAM), ce qui soulèverait de nombreuses préoccupations quant à la capacité de l’entreprise à gérer l’augmentation de ce type de contenu avec la montée de l’intelligence artificielle. Pour rappel, en 2022, Apple avait abandonné le projet de scan en temps réel du cloud des utilisateurs afin vérifier la nature des images envoyées. La firme de Cupertino avait fini par céder sous la pression des groupes de défense des droits civiques et des libertés individuelles. La NSPCC affirme qu’Apple sous-estime de manière significative la présence de CSAM sur ses services. Selon les données policières obtenues par la NSPCC, les prédateurs d’enfants en Angleterre et au Pays de Galles ont utilisé les plateformes d’Apple dans plus de cas de CSAM que ce que l’entreprise a signalé à l’échelle mondiale.
Richard Collard, l’un des responsables du NSPCC, pointe l’un des principaux manquements d’Apple dans ce dossier : » Il existe un écart inquiétant entre le nombre de crimes liés à l’abus d’enfants au Royaume-Uni qui ont lieu sur les services d’Apple et le nombre presque négligeable de rapports mondiaux sur des contenus abusifs qu’ils adressent aux autorités. Apple est clairement en retard sur nombre de ses pairs dans la lutte contre les abus sexuels sur enfants, alors que toutes les entreprises technologiques devraient investir dans la sécurité et se préparer au déploiement de la loi sur la sécurité en ligne au Royaume-Uni. »
De fait, les données obtenues par des demandes d’accès à l’information ont révélé qu’entre avril 2022 et mars 2023, du matériel Apple a été impliqué dans 337 infractions enregistrées d’images d’abus d’enfants en Angleterre et au Pays de Galles, tandis qu’Apple n’a signalé que 267 cas suspects de CSAM dans le monde entier au National Center for Missing & Exploited Children (NCMEC) en 2023. Ces données contrastent fortement avec les chiffres d’autres entreprises technologiques, telles que Google et Meta, qui ont signalé respectivement plus de 1,47 million et 30,6 millions de cas suspects de CSAM. Bien qu’iMessage soit un service de messagerie chiffré, similaire à WhatsApp de Meta qui a signalé 1,4 million de cas, les faibles chiffres de signalement d’Apple soulèvent des questions sur son engagement réel à lutter contre l’exploitation des enfants sur ses plateformes.
Ben voilà ! Le retour des schizophrènes.« La firme de Cupertino avait fini par céder sous la pression des groupes de défense des droits civiques et des libertés individuelles. » Apple a voulu faire quelque chose et de suite parce que c’est Apple, on fout la pression pour faire retirer le projet, et on finit par pleurer qu’Apple ne fait rien ou pas assez ! 👍
La meilleure protection se sont les parents .
Peut etre arreter de donner une nounou numerique a son gosse de 6 ans et discuter des dangers
Apple a au contraire fait beaucoup pour lutter contre. Mais les associations anti-Apple ont chialé parce qu’ils comprennent rien au fonctionnement (comme la plupart des lecteurs que j’avais vu commenter absolument n’importe quoi quand le projet a été lancé) mais qui l’ouvrent quand même.