C’est au tour du Parlement allemand de s’inquiéter du système d’analyse de photos d’Apple pour lutter contre la pédopornographie. Manuel Hoferlin, le président du comité à l’agenda numérique, a contacté Tim Cook pour qu’Apple reconsidère son mécanisme.

Apple Analyse Photos iPhone Pedopornographie 1

Pour Manuel Hoferlin, Apple s’engage sur « une voie dangereuse » avec l’analyse de photos des utilisateurs pour lutter contre la pédopornographie. Le fabricant d’iPhone compromet « la communication sécurisée et confidentielle ». Tout ce système, qui sera en place à partir d’iOS 15, représente « la plus grande violation du barrage à la confidentialité des communications que nous ayons vue depuis l’invention d’Internet », indique le message.

Cette lettre du Parlement allemand arrive quelques jours à peine après une inquiétude de la part de plusieurs associations de journalistes germanophones en Allemagne, en Suisse et en Autriche. Elles s’inquiétaient que la détection d’Apple puisse aller au-delà de la pédopornographie, avec la société de Tim Cook qui pourrait analyser d’autres types de photos. Elle pourrait également analyser d’autres types de contenus.

Dans le cas de la pédopornographie, iOS 15 va utiliser le système de hash pour vérifier si une photo a une correspondance avec une base de données. Celle-ci comprend des images pédopornographiques. Dès qu’il y a 30 images pédopornographiques détectées, Apple prévient les autorités et ferme le compte iCloud de l’utilisateur. Tout cela sera en place avec iOS 15, d’abord aux États-Unis. Mais les autres pays suivront au fil du temps.