Le projet controversé d’Apple consistant à analyser les photos des utilisateurs pour lutter contre la pédopornographie est abandonné. En effet, la société annonce qu’il ne verra finalement pas le jour.

Apple Analyse Photos iPhone Pedopornographie 1

Voici ce qu’Apple annonce dans un communiqué :

Après une vaste consultation d’experts visant à recueillir des commentaires sur les initiatives de protection de l’enfance que nous avons proposées l’année dernière, nous approfondissons notre investissement dans la fonction de la sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l’avant avec l’outil de détection CSAM proposé précédemment pour les photos iCloud. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous.

Lorsque l’analyse des photos a été annoncée, Apple a déclaré qu’iCloud serait en mesure de détecter les contenus inappropriés dans les photos des utilisateurs en se basant sur une base de données de hash d’images (CSAM). De cette façon, la société serait en mesure de détecter de telles photos à l’aide d’un traitement sur l’appareil, sans jamais avoir à voir les photos des utilisateurs. Comment ? Chaque image a son propre hash.

Il se trouve que cette fonctionnalité a dérangé beaucoup de personnes, estimant qu’Apple n’a pas à faire une telle analyse. Beaucoup ont critiqué le fait qu’Apple vante le respect de la vie privée en temps normal, au point d’avoir presque un double discours avec l’analyse. Voilà maintenant que le projet est enterré.