Apple ne veut pas laisser passer l’abus d’enfants, quelle que soit la forme. C’est pour cette raison que le fabricant analyse les photos mises en ligne sur iCloud par les utilisateurs avec pour objectif de détecter celles où il y a des abus (sexuels) avec les enfants.

« Nous utilisons certaines technologies pour aider à détecter le matériel d’abus pédosexuels », a déclaré Jane Horvath, responsable de la protection des renseignements personnels à l’échelle mondiale chez Apple, lors d’une session au CES de Las Vegas.

De son côté, un porte-parole d’Apple a renvoyé The Telegraph vers un paragraphe publié sur son site :

« Apple s’engage à protéger les enfants dans l’ensemble de notre écosystème, quel que soit l’endroit où nos produits sont utilisés, et nous continuons à soutenir l’innovation dans ce domaine. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne logistique. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d’images pour aider à trouver et à signaler les cas d’exploitation d’enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour trouver les cas suspects d’exploitation d’enfants. Nous validons chaque correspondance par un examen individuel. Les comptes comportant du contenu d’exploitation d’enfants violent nos conditions générales de service, et tout compte que nous trouvons avec ce matériel sera désactivé ».

Apple n’est pas la seule société à opérer à cette analyse. Facebook, Twitter, Google et d’autres entreprises technologiques le font et passent par un système nommé PhotoDNA. Apple ne dit pas s’il utilise lui-même PhotoDNA.