Pressé depuis plusieurs mois s’expliquer par les associations de défense de l’enfance, Apple a enfin expliqué les raisons pour lesquelles il a abandonné la vérification automatique des contenus pédopornographiques dans les bibliothèques photo d‘iCloud. Pour rappel, la firme de Cupertino devait initialement intégrer dans iCloud la détection de contenus CSAM (Child Sexual Abuse Material) à la fin de l’année 2021, mais a finalement fait marche arrière face aux très nombreuses critiques des experts en sécurité informatique et aux associations de défenses des libertés individuelles. Apple a donc livré une réponse détaillé à la société Heat Initiative (une association de lutte anti-CSAM), une réponse rédigée par Erik Neuenschwander, VP Apple Confidentialité des utilisateurs et sécurité des enfants.

« Les contenus pédopornographiques sont odieux et nous nous engageons à briser la chaîne de coercition et d’influence qui rend les enfants vulnérables à ces contenus » écrit Erik Neuenschwander, Ce dernier ajoute :« Cependant, après avoir collaboré avec un ensemble de chercheurs en matière de confidentialité et de sécurité, de groupes de défense des droits numériques et de défenseurs de la sécurité des enfants, la société a conclu qu’elle ne pouvait pas procéder au développement d’un mécanisme d’analyse CSAM, même s’il était spécifiquement conçu pour préserver la confidentialité. »

Neuenschwander note en outre que « L’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient eux-mêmes trouver et exploiter ». « Cela pourrait également entraîner une pente glissante vers des conséquences inattendues. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher différents types de contenu sur d’autres systèmes de messagerie cryptés ».