Apple a pris la décision de reporter le lancement de ses outils pour lutter contre la pédopornographie, ce qui inclut l’analyse de photos des utilisateurs. Le fabricant dit vouloir prendre un peu plus de temps au vu des critiques à tout-va.

Apple Analyse Photos iPhone Pedopornographie 1

Report du lancement pour les outils de lutte contre la pédopornographie

Voici ce qu’Apple déclare concernant le report de ses outils pour lutter contre la pédopornographie, qui devaient être en place dès le départ avec iOS 15 :

Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent les outils de communication pour les recruter et les exploiter, et à limiter la propagation des documents relatifs aux abus sexuels sur les enfants. Sur la base des commentaires des clients, des groupes de défense, des chercheurs et d’autres personnes, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité d’une importance cruciale pour les enfants.

Ce système a effectivement généré toute une polémique. Apple avait annoncé analyser les photos des utilisateurs avec le hash pour faire une comparaison avec une base de données remplie de contenu pédopornographique. L’analyse se fait directement sur l’iPhone et non sur les serveurs d’iCloud. En cas de contenus correspondants, Apple s’était engagé à fermer le compte iCloud de l’utilisateur et prévenir les autorités compétentes pour arrêter cette personne.

Des critiques à tout-va

Apple a annoncé ses outils le mois dernier. Dans la foulée, de nombreux utilisateurs ont critiqué l’analyse de photos, tout particulièrement parce qu’elle a lieu sur l’iPhone. Des chercheurs en sécurité ont également critiqué le système, tout comme le lanceur d’alerte Edward Snowden et l’ONG Electronic Frontier Foundation (EFF) qui défend la protection des libertés sur Internet. Tous s’accordaient à dire qu’Apple pourrait très bien analyser d’autres types de contenus à l’avenir et qu’il s’agissait d’une backdoor (porte dérobée) sur les iPhone.

Cela va même plus loin, puisque les politiques ont décidé de directement contacter Apple sur le sujet. C’est notamment le cas en Allemagne. Toujours en Allemagne, des journalistes ont évoqué les problèmes du système.

Pas de nouvelle date de lancement

Au départ, Apple prévoyait de proposer ses outils de lutte contre la pédopornographie aux États-Unis avec iOS 15, iPadOS 15, watchOS 8 et macOS Monterey. Les autres pays devaient suivre plus tard. Apple ne dit pas maintenant quand le lancement aura finalement lieu, que ce soit aux États-Unis ou ailleurs.

C’est l’occasion de rappeler qu’Apple scanne déjà les contenus sur les e-mails d’iCloud, et ce depuis 2019, pour détecter des contenus pédopornographiques.